a) Cómo podría utilizar la función de recorrido en - U-Cursos

a) Cómo podría utilizar la función de recorrido en profundidad (DFS) de un grafo para
determinar si es acíclico o no?
La idea es recorrer el grafo en profundidad y en cada iteracion verificar si ya visité ese
nodo o no.
boolean hayCiclo(v) // recorre en profundidad a partir del
vértice v
{ ++n;
if(DFN[v]!=0) //ya lo habia visitado
return true;
boolean b = false;
for(todo w tal que {v,w} está en E)
b = b || hayCiclo(w);
return b;
b) Implemente el recorrido en amplitud (BFS) para un grafo.
Cola cola=new Cola();
for(todo w)
cola.encolar(v); // para recorrer a partir de v, encola al final
if(DFN[v]==0) // primera vez que se visita este nodo
for(todo w tal que {v,w} esta en E)
String Matching Problem
Given a text string T of length n and a pattern
string P of length m, the exact string matching
problem is to find all occurrences of P in T.
Example: T=“AGCTTGA”
Chapter 3
String Matching
Searching keywords in a file
Searching engines (like Google and Openfind)
Database searching (GenBank)
More string matching algorithms (with source
3 -1
3 -2
A Brute-Force Algorithm
|S|=7, length of S
Substring: Si,j=SiS i+1…Sj
Example: S2,4=“GCT”
Subsequence of S: deleting zero or more
characters from S
“ACT” and “GCTT” are subsquences.
Prefix of S: S1,k
“AGCT” is a prefix of S.
Suffix of S: Sh,|S|
Time: O(mn) where m=|P| and n=|T|.
“CTTGA” is a suffix of S.
3 -3
3 -4
First Case for KMP Algorithm
Two-phase Algorithms
The first symbol of P does not appear in P again.
We can slide to T4, since T4≠P4 in (a).
Phase 1:Generate an array to indicate the
moving direction.
Phase 2:Make use of the array to move and
match the string
KMP algorithm:
Proposed by Knuth, Morris and Pratt in 1977.
Boyer-Moore Algorithm:
Proposed by Boyer-Moore in 1977.
3 -5
3 -6
Second Case for KMP Algorithm
Third Case for KMP Algorithm
The first symbol of P appears in P again.
T7≠P7 in (a). We have to slide to T6, since P6=P1=T6.
The prefix of P appears in P again.
T8≠P8 in (a). We have to slide to T6, since P6,7=P1,2=T6,7.
3 -7
3 -8
Definition of the Prefix Function
Principle of KMP Algorithm
f(j)=largest k < j such that P1,k=Pj–k+1,j
f(j)=0 if no such k
3 -9
Calculation of the Prefix Function
3 -10
Calculation of the Prefix Function
Suppose we have found f(8)=3.
To determine f(9):
determine f (5)
f ( 4 ) = 1 , thus P4 = P1
f (8) = 3 means P6,8 = P1,3
If P5 = P2 , then we get f ( 5) = f ( 4 ) + 1;
Now, P9 = P4
If P5 ≠ P2 , then we check if P5 = P1 ;
B ecause P5 ≠ P1 , we get
Thus, we set f (9) = f (8) + 1 = 4
f ( 5) = 0
3 -11
3 -12
Calculation of the Prefix Function
To determine f(10):
The Algorithm for Prefix Functions
f ( j ) = f k ( j − 1) + 1 if j > 1 and there exists the smallest
k ≥ 1 such that Pj = Pf k ( j −1)+1
f ( j ) = 0 otherwise
j-1 j
f ( 4) = 1
f (9) = 4 because P9 = Pf ( 9−1)+1 = P4
f (4) = 1 because P4 = Pf ( 4−1)+1 = P1 =" A"
j-1 j
f (10) = 2 because " T" = P10 ≠ Pf (10−1)+1 = P5 =" C"
P10 = Pf 2 (10−1)+1 = Pf ( f (10−1))+1 = Pf ( 4 )+1 = P2 =" T"
3 -13
An Example for KMP Algorithm
Phase 2
3 -14
Time Complexity of KMP Algorithm
Time complexity: O(m+n) (analysis omitted)
O(m) for computing function f
O(n) for searching P
f(4–1)+1= f(3)+1=0+1=1
Phase 1
f(12)+1= 4+1=5
3 -15
Suffix Trees
Suffixes for S=“ATCACATCATCA”
3 -16
A suffix Tree for S=“ATCACATCATCA”
3 -17
3 -18
Algorithm for Creating a Suffix Tree
Properties of a Suffix Tree
Each tree edge is labeled by a substring of S.
Each internal node has at least 2 children.
Each S(i) has its corresponding labeled path
from root to a leaf, for 1≤ i ≤ n .
There are n leaves.
No edges branching out from the same
internal node can start with the same
Step 1: Divide all suffixes into distinct groups
according to their starting characters and create a
Step 2: For each group, if it contains only one suffix,
create a leaf node and a branch with this suffix as
its label; otherwise, find the longest common
prefix among all suffixes of this group and create
a branch out of the node with this longest common
prefix as its label. Delete this prefix from all
suffixes of the group.
Step 3: Repeat the above procedure for each node
which is not terminated.
3 -19
Example for Creating a Suffix Tree
3 -20
Second recursion:
Starting characters: “A”, “C”, “T”
In N3,
S(7) =“TCATCA”
S(10) =“TCA”
Longest common prefix of N3 is “TCA”
3 -21
Finding a Substring with the
Suffix Tree
3 -22
Time Complexity
A suffix tree for a text string T of length n
can be constructed in O(n) time (with a
complicated algorithm).
To search a pattern P of length m on a
suffix tree needs O(m) comparisons.
Exact string matching: O(n+m) time
P is at position 7 in S.
P =“TCA”
P is at position 2, 7 and
10 in S.
P is not in S.
3 -23
3 -24
The Suffix Array
Searching in a Suffix Array
In a suffix array, all suffixes of S are in the nondecreasing lexical order.
For example, S=“ATCACATCATCA”
i 1 2 3
A 12 4 9
If T is represented by a suffix array, we can
find P in T in O(mlogn) time with a binary
A suffix array can be determined in O(n)
time by lexical depth first searching in a
suffix tree.
Total time: O(n+mlogn)
4 5 6 7 8 9 10 11 12
1 6 11 3 8 5 10 2 7
3 -25
3 -26
Suffix Edit Distance
Approximate String Matching
Given two strings S1 and S2, the suffix edit
distance is the minimum number of
substitutions, insertion and deletions, which
will transform some suffix of S1 into S2.
Text string T, |T|=n
Pattern string P, |P|=m
k errors, where errors can be substituting, deleting,
or inserting a character.
T =“pttapa”, P =“patt”, k =2,
S1=“ptt” and S2=“p”. The suffix edit distance
between S1 and S2 is 1.
S1=“pt” and S2=“patt”. The suffix edit distance
between S1 and S2 is 2.
T1,2 ,T1,3 ,T1,4 and T5,6 are all up to 2 errors with P.
3 -27
3 -28
Suffix Edit Distance Used in Matching
Approximate String Matching
Given T and P, if at least one of suffix edit
distances between T1,1, T1,2 , …, T1,n and P is
not greater than k, then there is an approximate
matching with error not greater than k.
Example: T =“pttapa”, P =“patt”, k=2
Solved by dynamic programming
Let E(i,j) denote the suffix edit distance
between T1,j and P1,i.
For T1,1=“p” and P =“patt”, the suffix edit distance
is 3.
For T1,2 =“pt” and P =“patt”, the suffix edit
distance is 2.
For T1,5 =“pttap” and P =“patt”, the suffix edit
distance is 3.
For T1,6 =“pttapa” and P =“patt”, the suffix edit
distance is 2.
E(i, j) = E(i–1, j–1)
if Pi=Tj
E(i, j) = min{E(i, j–1), E(i–1, j), E(i–1, j–1)}+1
Pi ≠Tj
3 -29
3 -30
Example for Appr. String Matching
Example: T =“pttapa”, P =“patt”, k=2
3 -31
Auxiliar 9
Profesor: Benjamin Bustos
Auxiliares: Felipe Garrido, Sebastián Kreft
Problema 1 (Problema 2, Examen Otoño 2005)
a) Para el siguiente grafo:
considere que los valores en los arcos son pesos o costos, y muestre paso a paso la construcción del
árbol cobertor mínimo usando los algoritmos de i) Krukal y ii) Prim.
b) Considere el algoritmo de Dijkstra.
D[v]=cost(s,v) para todo v en V-A;//infinito si el arco no existe
encontrar v en V-A tal que D[V] es mínimo;
agregar v a A;
for each nodo w con arco e desde v a w do
Suponga que se desea modificar el algoritmo de la siguiente manera: Para todos los nodos x
alcanzables (excepto el nodo origen), se define P[x] como el nodo previo en el camino óptimo
desde el origen hasta x.
Indique como debe modificarse el algoritmo de manera de calcular correctamente los valores de
a) Las soluciones es más fácil verlas d manera gráfica, pero aquí intentaré mostrarlas con texto.
i) Kruskal
El algoritmo agrega siempre el arco más barato que no produzca ciclos.
1) Agregar arco be (costo 1)
2) Agregar arco sa (costo 2)
3) Agregar arco dc (costo 3)
4) Agregar arco ce (costo 4)
*) Agregar arco de (costo 5), pero este arco produce un ciclo, entonces no se agrega
5) Agregar arco da (costo 6)
ii) Prim
El algoritmo mantiene un conjunto de nodos alxanzables y se va agregando aquel que tenga
menor costo.
1) Se parte con el arco de costo mínimo que es be (costo 1), alcanzables={c,d,s}
2) Agregar arco ce (costo 4), alcanzables={d,a,s}
3) Agregar arco cd (costo 3), alcanzables={a,s}
4) Agregar arco ad (costo 6), alcanzables={s}
5) Agregar arco as (costo 2), alcanzables={}
En ambos casos se llega a que el arbol cobertor mínimo tiene costo = 16.
b) Cada vez que se modifique D[w] (i.e cambie en camino), es necesario modificar P[w].
P[s]=-1;//el origen no tiene nodo previo
D[v]=cost(s,v) para todo v en V-A;//infinito si el arco no existe
for each v en V-A do
if P[v] = infinito
encontrar v en V-A tal que D[V] es mínimo;
agregar v a A;
for each nodo w con arco e desde v a w do
if D[w] > D[v]+cost(v,w)
Problema 2 (Problema 3, Examen Otoño 2003)
Suponga que se tiene un conjunto de n cursos de la Escuela que un alumno necesita tomar para
titularse, y se tiene una lista de pares i j, indicando que el curso i es requisito del curso j. Para poder
inscribir un curso, el alumno debe haber aprobado antes todos sus requisitos (o sea, no existen
requisitos de tipo “o” ni simultáneos, todos son de tipo “y”).
Esta información la podemos representar como un grafo acíclico dirigido en que los cursos son los
nodos y los arcos representan los requisitos.
Se desea encontrar un algoritmo que imprima la lista de todos los cursos en algún orden tal que sea
legal que el alumno los tome en ese orden. En otras palabras, cuando un curso aparece en esta lista,
todos sus requisitos ya deben haber sido listados previamente.
(En términos matemáticos, el grafo representa a un orden parcial, y se desea encontrar un orden
total que sea compatible con ese orden parcial) .
Para resolver este problema, clasifique los cursos según su número de requisitos (o sea, de arcos
entrantes). En un comienzo, sólo se pueden listar cursos que no tengan requisitos. Posteriormente,
cada vez que se lista un curso dado, se elimina del grafo el nodo respectivo, junto con todos los
arcos que salían de el, y se reclasifican los cursos hacia donde entraban esos arcos.
Describa el algoritmo en pseudocódigo, cuidando que todo el proceso no demore un tiempo mayor
que O(n + m), donde n es el número de cursos (nodos) y m el número de requisitos (arcos).
Justifique por qué su algoritmo cumple con este tiempo de ejecución.
Una malla de cursos con las restricciones propuestas puede ser como
la figura. En donde algunos ordenes de curso válidos son los
El algoritmo solicitado se llama Topological Sorting.
Siguiendo las indicaciones el algoritmo queda como sigue:
L = Lista Vacía //Contendrá el resultado final
S = Conjunto de todos los nodos que no tienen arcos entrantes
while S != vacio do
sacar un nodo n de S
insertar n en L
for each nodo m con arco e desde n a m do
remover arco e del grafo
if m no tiene otro arco entrante then
insertar m en S
if grafo tiene arcos then
print “Error: el grafo tiene ciclos”
print L
El tiempo de ejecución pedido se cumple porque calcular S cuesta O(n+m), y dentro del while en el
for lo que se hace es sacar arcos del grafo, pero cada arco puede ser removido solo una vez. Es decir
es O(m). Más el while que es O(n), pues el tamaño máximo de S es n. Luego el total es O(n+m).
Borrar el arco e del grafo no es necesario, sino que basta con disminuir el contador de nodos
entrantes del arco m.
Crear S cuesta O(n+m) si se considera el siguiente algoritmo:
G[v]=0 para todo nodo v
for each arco (v,w)
for each nodo v
if G[v]==0
agregar v a S
Pregunta 3 (Pregunta 3, Examen Otoño 2001)
Se dice que un grafo no dirigido es bipartito si es posible separar sus nodos en dos subconjuntos A y
B tal que todos los arcos del grafo van desde A a B, y no existen arcos que conecten nodos de A
entre sí ́ni arcos que conecten nodos de B entre sí.
Una manera gráfica de verlo es decir que en un grafo bipartito es posible colorear los nodos de dos
colores distintos, tal que nunca hay arcos que conecten nodos del mismo color.
Describa (en pseudocódigo) un algoritmo que determine si un grafo es bipartita. El algoritmo debe
operar en tiempo lineal en el tamaño del grafo, esto es, O( V + E).
Si nos fijamos en el dibujo nos damos cuenta que el conjunto A es de todos los nodos que no tienen
arcos entrantes y B es el conjunto de los nodos que no tienen arcos salientes.
La estrategia para solucionar el problema será, pintar un nodo de color amarillo, y luego todos los
vecinos de ese nodo pintarlos de color blanco. Luego todos los vecinos de ese nodo de color
amarillo y así sucevivamente. Si en algún punto tenemos que un nodo ya fue pintado y se le quiere
cambiar el color, entonces no es posible hacer la partición. Lo otro que puede suceder es que queden
nodos sin pintar, en ese caso ocurrio que el grafo no era completamente conexo. Y se sigue el
procedimiento con las componentes que falten por pintar.
C=color de cada nodo, parte como indefinido
while true
Sea v el primer nodo no pintado a partir de minpos
if v>n return true
agregar (v,blanco) a pintar_vecinos
while pintar_vecinos no vacio
sacar (v,color) de pintar_vecinos
for each arco (v,w)
if C[w]=indefinido
agregar (w,-color) a pintar_vecinos
else if C[w]!=color
return false
Cada nodo puede ser agregado solo una vez a la lista de pintar_vecinos, por lo que el for interno es
de O(m), y el while pintar_vecinos aporta un O(n).
El problema es que eso aparece denttro de otro while, pero eso es solo por le hecho que pueden
haber componentes no conexas. Para ver que el orden se mantiene hay que darse cuenta que buscar
el proximo nodo sin pintar no toma más de O(n), pues cada vez se avanza el índice. Y en el fondo
cuando se tienen distintas compoentes es como si los grafos se achicaran.
3.Al TDA Grafo (no dirigido) se le ha agregado el método int numeroArcos().
Implemente el método suponiendo que el grafo está representado con
a) un arreglo de vértices y una matriz de adyacencia
class Grafo{
protected Vertice[] v;
protected boolean[][] a;
protected static final int N=100;
protected int n;
int na=0;
for(int i=0; i<n; ++i)
for(int j=i+1; j<n; ++j)
return na;
b) lista enlazada de vértices (y en cada vértice una lista enlazada de sus vértices adyacentes)
class NodoVertice{
public Vertice vertice; public NodoVertice sgte; public NodoArco lista;
class NodoArco{
public Vertice vertice; public NodoArco sgte;
class Grafo{
protected NodoVertice primero;
public Grafo(){primero=null;}
//crear un vector con todos los arcos no repetidos: 2.5 puntos
Vector v=new Vector();
for(NodoVertice r=primero; r!=null; r=r.sgte)
for(NodoArco ra=r.lista; ra!=null; ra=ra.sgte){//0.5
Arco a=new Arco(r.vertice,ra.vertice);
if(v.indexOf(a) < 0) v.addElement(a);
return v.size();
//clase Arco: 0.5 ptos
class Arco{
public Vertice v, w;
public boolean equals(Arco x){
return v.equals(x.v) && w.equals(x.w) //0.1
|| v.equals(x.w) && w.equals(x.v);//0.1
3.Implemente el método Queue recorridoProfundo(Vertice x) de la clase Grafo
• Representación de Grafo: private Vector V, E; //vectores para vértices y arcos
• class Arco{ public Vertice v1, v2; public int costo; }
• class Vertice{ public Object id; }
• use exclusivamente los siguientes métodos de la clase Vector:
Crea Vector vacío
int indexOf(Object x)
Indice de x (-1 si no está)
void addElement(Object x)
Agrega x al final del Vector
Object elementAt(int i)
Entrega Objeto de índice i
void removeElementAt(int i)
Borra Objeto de índice i
int size()
Nº de objetos en el vector
public Queue recorridoProfundo(Vertice x){
Queue q = new Queue();
if(V.indexOf(x)<0) return q;//no esta en grafo
boolean[] visitado=new boolean[V.size()];
Stack s=new Stack();
int i=V.indexOf(x);
for(int i=0; i<E.size(); ++i){
Arco e=(Arco)E.elementAt(i);
return q;
CC30A Algoritmos y Estructuras de Datos
Benjamin Bustos ([email protected])
Patricio Poblete ([email protected])
Nelson Baloian ([email protected])
Estrategias básicas de programación
Desarrollo de programas iterativos con Invariante
Diagramas de Estados
"Dividir para reinar"
Recursividad y Tabulación (Programación Dinámica)
Conceptos de Programación Orientada al Objeto (OOP)
1. Desarrollo de Programas iterativos usando invariante
La forma más general de una instrucción iterativa es :
while( condici n )
instrucci n;
La instrucción se ejecuta en forma reiterada mientras la condición sea verdadera.
while( condici n ) {
instrucci n 1;
instrucci n 2;
Instrucci n N-1;
Instrucci n N;
while(true) {
if (condici n) break;
for (instrucci n de inicializaci n; condici n; instrucci n N)
instrucci n 1;
instrucci n N-1;
Cada vez que se intenta iniciar una nueva iteración (incluyendo la primera vez que ello ocurre) el programa se encuentra en un
estado I llamado el invariante del ciclo.
Invariante: representa el estado en que se encuentra el programa. Muchas veces representa la estrategia que se usa para
resolver el problema. Se usa para:
- A partir del invariante desarrollar el trozo de programa
- Usar un invariante para demostrar que el trozo programa hace lo que queremos
- Explicar un trozo de programa
En general, al escribir un ciclo se debe establecer la validez inicial del invariante, a través de una inicializaci n. El objetivo del
ciclo es llegar a un estado final F. En cada iteración se debe, además, preservar la validez del invariante.
Considere el problema de encontrar el máximo de un número variable de datos, almacenados en un arreglo a[1], ...,
a[n]. Para verlo en forma iterativa, imagine un proceso en que los datos se van examinando uno a uno, comparándolos con
el máximo encontrado hasta el momento. De esta manera, si en un instante dado ya se han examinado los datos hasta a[k],
entonces se conoce el máximo hasta esa variable.
// m = max(a[1],...,a[n]);
k = 1;
m = a[1];
// m == max(a[1])
// De esta manera trivial se incializa el siguiente invariante:
// Invariante: k<=n && m == max(a[1],...,a[k])
while( k<n )
// k<=n && m == max(a[1],...,a[k-1])
if( a[k]>m )
m = a[k];
// k<=n && m == max(a[1],...,a[k])
// m = max(a[1],...,a[n])
Esta última afirmación se deduce del hecho que al terminar el ciclo se sabe que el invariante sigue siendo verdadero, pero la
condición del ciclo es falsa. En estricto rigor, la afirmación que podríamos hacer ahí es
// k>=n && k<=n && m == max(a[1],,,a[k])
de la cual se deduce la señalada al final del programa.
Cómo escribir un ciclo (y asegurarse que hace lo que uno quiere)?
El punto de partida es el INVARIANTE: una condición que se cumple durante todo el ciclo y que refleja de alguna manera la
estrategia que se usa para resolver el problema. Lo importante: se debe cumplir al principio, durante cada ejecución del ciclo
y al final. Veamos un ejemplo con la búsqueda de mayor de n números:
1. Encontrar un invariante adecuado. Para esto, a menudo es conveniente "relajar" la meta (estado final) al que se desea
llegar. Por ejemplo, si se desea obtener:
// m == max(a[1].,,,.a[n])
se puede re-escribir esta condición separándola en dos condiciones que se puedan satisfacer independientemente:
// m == max(a[1].,,,.a[k]) && k==n
Esto, que puede parecer ocioso, es muy útil, porque a continuación se relaja la exigencia de esta condición, haciendo
que se cumpla la primera parte, pero dejando que la segunda se satisfaga con "k<=n".
2. Escribir la inicialización, la cual debe asegurar que el invariante se cumpla antes de empezar a iterar.
3. Encontrar la condición de término. Esto se obtiene de comparar "qué le falta" al invariante para ser igual al estado final.
4. Escribir el cuerpo del ciclo, el cual debe:
o conseguir que el proceso avance, de modo que termine algún día, y
o preservar el invariante.
Estos dos últimos objetivos suelen ser contrapuestos. Al efectuar un avance en el proceso, los valores de las variables
cambian, con el resultado que a menudo se deja de satisfacer el invariante. Por lo tanto, el resto del cuerpo del ciclo se suele
dedicar a tratar de recuperar la validez del invariante.
Ejemplos de programas iterativos abordados con invariante
Algoritmos simples de ordenación
Considere el problema de poner los elementos de un arreglo a[0],...,a[n-1]en orden ascendente.
Se estudiarán varias soluciones, todas ellas consistentes en algoritmos sencillos, pero no muy eficientes. Estas distintas
soluciones van a provenir de escoger distintos invariantes, o distintas maneras de preservarlos.
Ordenación por inserción
Este algoritmo va construyendo un trozo ordenado del arreglo al extremo izquierdo, y en cada iteración le agrega un nuevo
elemento a ese grupo.
Esto es: los kprimeros elementos ya están ordenados.
// Ordenar a[0],...,a[n-1] por inserción (borrador)
k = 0; // inicialmente no hay elementos ordenados (k=1 también funcionaría)
while( k<n )
Insertar a[k] entre a[0],...,a[k-1];
Si la inserción se efectúa correctamente, es evidente que el programa anterior ordena correctamente al conjunto.
El siguiente problema es ver cómo se realiza la inserción:
Insertar a[k] entre a[0],...,a[k-1] =>
for( j=k; j>0 && a[j-1]>a[j]; --j )
// intercambiar a[j-1] con a[j]
t = a[j];
a[j] = a[j-1];
a[j-1] = t;
Al seguir el proceso de la inserción, se puede observar que la variable ttoma siempre el mismo valor: el del elemento que se
está insertando. Por lo tanto, se puede optimizar el programa realizando una única asignación a tantes de comenzar el ciclo.
Otra observación es que la mayoría de las asignaciones a a[j-1]son inútiles, porque esa variable va a ser sobre-escrita en
la iteración siguiente. Luego, se puede evitar esas asignaciones, reemplazándolas por una sola al final del ciclo:
Insertar a[k] entre a[0],...,a[k-1] =>
// versión optimizada
t = a[k];
for( j=k; j>0 && a[j-1]>t; --j )
a[j] = a[j-1];
a[j] = t;
Efectuando la sustitución de esta versión, se obtiene la siguiente versión final para el algoritmo de ordenación:
// Ordenar a[0],...,a[n-1] por inserción
k = 0; // inicialmente no hay elementos ordenados (k=1 también funcionaría)
while( k<n )
// Insertar a[k] entre a[0],...,a[k-1]
t = a[k];
for( j=k; j>0 && a[j-1]>t; --j )
a[j] = a[j-1];
a[j] = t;
El tiempo que demora este algoritmo en el peor caso es del orden de n2, lo que se denotará O(n2).Se puede demostrar que
esto mismo es cierto si se considera el caso promedio.
Ordenación por Selección
Este algoritmo se basa en hacer pasadas sucesivas sobre los datos. En cada pasada, se encuentra el máximo del arreglo, y
se lo lleva al extremo derecho. Una vez hecho esto, ese elemento deja de ser considerado, porque se encuentra ya en su
posición definitiva. Esto conduce al siguiente invariante:
En palabras: "Los elementos desde khasta n-1ya están ordenados y son mayores que los primeros k".
// Ordenar a[0], ..., a[n-1] por selección
k = n; // inicialmente los n primeros están desordenados
while( k>=2 )
Llevar el max de a[0], ..., a[k-1] hacia a[k-1];
Llevar el max de a[0], ..., a[k-1] hacia a[k-1] =>
i = 0; // a[i] es el max hasta el momento
for( j=1; j<=k-1; ++j )
if( a[j]>a[i] )
i = j;
// ahora intercambiamos a[i] con a[k-1]
t = a[i];
a[i] = a[k-1];
a[k-1] = t;
El tiempo que demora este algoritmo es O(n2), y no hay diferencia entre el peor caso y el caso promedio.
Más adelante se verá una forma diferente de realizar el proceso de encontrar el máximo, que permitirá que ese proceso sea
más eficiente. Básicamente, se trata que al encontrar el máximo una vez, es posible obtener información adicional que facilite
encontrar luego el segundo máximo, y así sucesivamente.
Una forma de hacer esto es construir un torneo balanceado, al estilo de los torneos de tenis. Una vez que se han jugado todos
los partidos del torneo, con n jugadores, si se desea encontrar al (verdadero) sub-campeón, basta con sustituir
imaginariamente al campeón por un jugador pésimo, y jugar de nuevo los log n partidos en que estuvo involucrado el
campeón. El resultado es un método de ordenación que demora tiempo O(n log n).
Ordenación de la Burbuja
Este método se basa en hacer pasadas de izquierda a derecha sobre los datos, intercambiando pares de elementos
adyacentes que estén fuera de orden. Al final de cada pasada, en forma natural el máximo estará en la posición de más a la
derecha (que es su posición final) y puede por lo tanto ser excluido en pasadas sucesivas.
Esto conduce al siguiente invariante (idéntico al de ordenación por selección):
El borrador del programa es:
// Ordenar a[0], ..., a[n-1] por la burbuja (borrador)
k = n;
while( k>1 )
Hacer una pasada sobre a[0], ..., a[k-1];
Disminuir k;
Hacer una pasada sobre a[0], ..., a[k-1] =>
for( j=0; j<=k-2; ++j )
if( a[j]>a[j+1] )
{ // Intercambiar a[j] con a[j+1]
t = a[j];
a[j] = a[j+1];
a[j+1] = t;
Disminuir k =>
Esto último puede parecer ocioso, pero pronto se verá que el expresarlo de esta manera da una flexibilidad que resulta útil.
Un problema que presenta este programa es que si el archivo está incialmente ordenado, el programa igual hace npasadas,
cuando después de la primera ya podría haberse dado cuenta que el archivo ya estaba ordenado.
Para aprovechar cualquier posible orden que pueda haber en el archivo, se puede hacer que el programa anote ("recuerde")
el lugar en donde se produjo el último intercambio. Si la variable i se define de manera que el último intercambio en una
pasada dada fue entre a[i-1] y a[i], entonces todos los elementos desde a[i] en adelante están ya ordenados (de lo
contrario habría habido intercambios más hacia la derecha), y por lo tanto kse puede disminuir haciendo que sea igual a i:
Hacer una pasada sobre a[0], ..., a[k-1] =>
for( j=0; j<=k-2; ++j )
if( a[j]>a[j+1] )
{ // Intercambiar a[j] con a[j+1]
t = a[j];
a[j] = a[j+1];
a[j+1] = t;
//Recordar el lugar del último intercambio
i = j+1;
Disminuir k =>
El tiempo que demora este algoritmo tanto en el peor caso como en promedio es O(n2).
Cálculo de
Un algoritmo simple consiste en multiplicar nveces:
// Algoritmo simple
y = 1;
for( j=n; j>0; --j )
y = y*x;
Este algoritmo evidentemente toma tiempo O(n), y su invariante se puede escribir como
y * xj == xn
Es posible encontrar un algoritmo sustancialmente más eficiente de la siguiente manera. Primero se desvinculan las dos
ocurrencias de xen el invariante:
y = 1;
z = x;
for( j=n; j>0; --j )
y = y*z;
con invariante
y * zj == xn
Esto podría parecer ocioso, pero permite hacer una optimización al observar que está permitido modificar la variable z al
inicio del ciclo siempre que se mantenga la validez del invariante. En particular, si j resulta ser par, podemos elevar z al
cuadrado si al mismo tiempo dividimos j por 2. De esta manera, el invariante sigue igual, pero j disminuye mucho más
Mejor todavía, si esto se puede hacer una vez, entonces se puede hacer muchas veces siempre que jsiga siendo par:
y = 1;
z = x;
for( j=n; j>0; --j ) // Invariante: y * zj == xn
while( j es par )
z = z*z;
j = j/2;
y = y*z;
La detección que jes par se puede implementar como
j es par =>
j&1 == 0
Este algoritmo demora tiempo O(log n), lo cual se debe a que jsólo se puede dividir log nveces por 2 antes de llegar a 1.
Es cierto que jsólo se divide cuando es par, pero si es impar en una iteración del for, está garantizado que será par a la
1. Diagramas de Estados
Un diagrama de estados nos permite visualizar los diferentes estados por los que va pasando un programa. Las transiciones
de un estado a otro se realizan ya sea incondicionalmente o bajo una condición. Además, pueden ir acompañadas de una
acción que se realiza junto con la transición.
Ejem l 1: Contar palabras en una frase.
Para simplificar, supongamos que la frase está almacenada en un string s, y supongamos que la frase termina con un punto.
Por ejemplo,
String s = "Este es un ejemplo.";
Para los fines de este ejemplo, diremos que una "palabra" es cualquier secuencia de caracteres consecutivos distintos de
blanco (y punto).
Para resolver este problema, examinaremos los caracteres del string de izquierda a derecha, usando charAt(k), y lo que se
haga con cada carácter depende si estábamos dentro o fuera de una palabra. Esto último corresponde al estado del
Veremos dos formas distintas de llevar este diagrama de transición a un programa. A pesar que ambos se ven muy distintos,
en realidad representan exactamente el mismo proceso:
// Version 1
np = 0;
estado = FUERA;
for( k=0; (c=s.charAt(k))!='.'; ++k )
if( estado==FUERA )
if( c!=' ' )
estado = DENTRO;
else // estado==DENTRO
if( c==' ' )
estado = FUERA;
// Version 2
k = 0;
np = 0;
while( s.charAt(k)!='.' )
{ // estado==FUERA
while( s.charAt(k)==' ' )
if( s.charAt(k)=='.' )
// estado==DENTRO
while( s.charAt(k)!=' ' && s.charAt(k)!='.' )
if( s.charAt(k)=='.' )
Ejem l 2: Reordenar los elementos de a[0], ..., a[n]dejando a la izquierda los <0y a la derecha los >=0.
Soluci n 1:
Invariante (un mismo estado desde el principio hasta el fin del ciclo):
// Version 1
// Version 2
i = 0;
j = n;
while( i<j )
if( a[i]<0 )
else if( a[j]>=0 )
a[i] <-> a[j];
i = 0;
j = n;
while( i<j )
while( i<j && a[i]<0 )
while( i<j && a[j]>=0 )
if( i<j )
a[i] <-> a[j];
Soluci n 2:
Otro Invariante (un mismo estado desde el principio hasta el fin del ciclo):
i = 0;
for( j=0; j<=n; ++j )
if( a[j]<0 ) {
a[i] <-> a[j];
Ejem l 3: Chequeos de expresiones es un buen tipo de problema para usar esta técnica. Escribir una función con
encabezado pubic static double valor(String s) que recibe como parámetro un string que contiene un número real terminado
con un ; y entregue su valor. Si el número está ma escrito debe retornar Math.MAXDOUBLE (el máximo double que puede
guardar java).
Esto se puede abordar con ayuda de un diagrama de estados:
// Version 1
double valor = 0;
int n;
int final ENTERO =1, DECIMAL =2, ERROR =3, FIN =0;
estado = ENTERO;
for( k=0; k < s.length() && estado != FIN && estado != ERROR; ++k ){
if( estado== ENTERO)
if( s.charAt(k) <= '9' && s.charAt(k) >= '0' )
valor = valor*10 + s.charAt(k)-'0';
else if (s.charAt(k) == ';')
estado = FIN;
else if (s.charAt(k) == '.') {
n = 10;
estado = DECIMAL;
else estado = ERROR;
else if(estado == DECIMAL)
if( s.charAt(k) <= '9' && s.charAt(k) >= '0' ) {
valor = valor + (s.charAt(k)-'0')/n;
n = n*10;
else if (s.charAt(k) == ';')
estado = FIN;
else estado = ERROR;
if (estado == FIN)return valor else return Math.MAXDOUBLE;
// Version 2
double valor = 0;
k = 0;
while(k < s.length() && s.charAt(k) <= '9' && s.charAt(k) >= '0') {
valor = valor*10 + s.charAt(k)-'0';
if (s.charAt(k) == ';') return valor
else if (s.charAt(k) != '.') return Math.MAXDOUBLE;
int n = 10;
while (k < s.length() && s.charAt(k) <= '9' && s.charAt(k) >= '0') {
valor = valor + (s.charAt(k)-'0')/n;
n = n*10;
if (s.charAt(k) == ';') return valor
else return Math.MAXDOUBLE;
Problemas Propuestos
1- Dibujar un autómata que reconozca expresiones (termine en un estado final si está bien escrita, en uno de eroor si no)
del tipo:
unavariable=345+438; o sea <nombre_de_variable>=<entero><op><entero>;
1.1 permita uno o más espacios entre los elementos (variable, signo igual, enteros, operación, punto-coma)
1.2 después del signo = puede venir un solo número, o una cadena de <entero>(<op><entero>)*
1.3 haga una función que devuelva el valor de la expresión suponiendo que solo vienen sumas de números positivos si
está bien escrita, o devuelve el valor -1;
2- Dibujar un autómata que quede en un estado final si los primeros dos caracteres de una entrada que puede ser
infinitamente larga (no cabe en una variable) coinciden con los últimos dos.
3- Un sistema de alerta de la calidad del aire emite una señal verde cada vez que la medicion del aire está bajo el valor
50. Si esta medición sobrepasa los 50 entonces se emite una señal roja. Para volver a emitir una señal verde deben
venir por lo menos 3 mediciones bajo los 50, durante las cuales se emite una señal amarilla. Suponga que las medidas
para el día de ayer se han tomado cada 5 minutos y se han registrado en el arreglo int[] x = new int[288]. Escriba un
trozo de programa que usando este arreglo imprima cuantas veces se emitió la luz verde, la roja y la amarilla durante el
día. Suponga que se empieza en la luz verde
4- Escribir una función que tenga el encabezado public static true valido(String s) que retorna true si el string s empieza
con uno o más caracteres 'a' seguidos por uno o más caraceters 'b' y terminados con uno o más caracteres 'c' seguido
por un carácter ';'. Además debe imprimir (con System.out.println(....) ) la cantidad de caracteres a, b y c que venían en
la secuencia. Por ejemplo: aabbbbcc; , abbbbc; , abc;, aaabc; son secuencias válidas. bbbccc; , axbbccc; , aaaccc; ,
aabcc (no tiene ';' al final) son inválidas.
2. Recursividad
Al programar en forma recursiva, buscamos dentro de un problema otro sub-problema que posea su misma estructura.
Ejemplo: Calcular xn.
// Version 1, estrategia: xn = x * xn-1
public static float elevar( float x, int n )
if( n==0 )
return 1;
return x * elevar(x, n-1);
// Version 2, estrategia xn = xn/2 * xn/2
public static float elevar( float x, int n )
if( n==0 )
return 1;
else if( n es impar )
return x * elevar( x, n-1 );
return elevar( x*x, n/2 );
Ejemplo: Torres de Hanoi.
public class TorresDeHanoi
static void Hanoi( int n, int a, int b, int c )
if( n>0 )
Hanoi( n-1, a, c, b );
System.out.println( a + " --> " + c );
Hanoi( n-1, b, a, c );
public static void main( String[] args )
Hanoi( Integer.parseInt(args[0]), 1, 2, 3 );
Ejemplo: Generar e imprimir todas las permutaciones de un arreglo desde su elemento inicio hasta su elemento final
public class PermutaArreglo {
static void permutaciones( int[] x, int ini, int fin) {
if( ini == fin ) { imprimir(x); return;}
for (int i = ini; i<= fin; i++) {
permutaciones(x, ini+1, fin);
public static void imprimir(int[] x) {
for(int i = 0; i < x.length; i++)
System.out.print(x[i]+" ");
public static void main( String[] args ) {
int[] a = {1,2,3,4,5};
permutaciones( a,0,4 );
public static void intercambiar(int[] x, int y, int z) {
int aux = x[y]; x[y] = x[z]; x[z] = aux;
A continuación veremos estrategias de solución de problemas basadas en la recursividad
3. Backtraking (resolver por prueba y error)
Problema: se tiene una matriz de caracteres de dimensiones M+1xN+1 que representa un laberinto. En los elementos donde
hay un caracter * significa que hay una pared y no se puede pasar por esa posición y por donde hay un espacio se puede
pasar. Un ejemplo sería:
* *
* *
*** *
* *
* *
Se le pide escribir un método public static boolean salida(char[][] x, int i, int j, int M, int N) que retorne true si a desde la
posición i,j se puede encontrar una salida.
Recursivamente esto se puede programar de la siguiente manera probando todos los caminos posibles:
1- si en la posición donde estoy (i,j) hay un * no hay salida y retorno false.
2- si estoy en una posición (i,N) o (M,j) y hay un entonces estoy fuera y retorno true.
3- si estoy en posición (i,j) y hay un espacio, pruebo recursivamente si hay salida por alguna de las 4 vecinas (i+1,j), (i-1,j),
(i,j+1), (i,j-1).
si alguna de las llamadas retorna true, yo retorno true (suponemos que no se puede mover en diagonal). Si todas retornan
false, retorno false.
if (x[i][j] == & ) return true;
if (salida1(x, i+1, j, M, N)) return true;
if (salida1(x, i-1, j ,M, N)) return true;
if (salida1(x, i, j+1, M, N)) return true;
if (salida1(x, i, j-1, M, N)) return true;
return false;
Esta solución tiene el problema que puede generar llamadas infinitas. Por ejemplo, si llamamos a salida(x, a, b, M,N) y esá
vacía pero no es salida, esta llamará a salida(x,a+1,b,M,N). Si la celda (a+1,b) está vacía y no es salida, llamará a salida(x,
a+1-1,b,M,N), generandose así un ciclo infinito. Para evitar esto podemos ir “marcando” (por ejemplo, con una x) los lugares
por donde hemos pasado para no pasar de nuevo por ahí:
if (x[i][j] == & ) return true;
if (x[i][j] == '*' || x[i][j] == '+') return false;
x[i][j] = '+';
if (salida1(x, i+1, j, M, N)) return true;
if (salida1(x, i-1, j ,M, N)) return true;
if (salida1(x, i, j+1, M, N)) return true;
if (salida1(x, i, j-1, M, N)) return true;
return false;
Y ahora, ¿cómo podemos “rescatar” el camino? Podemos retornar un string que contenga la secuencia de (i,j) por donde hay
que pasar para llegar a la salida. Para eso debemos modificar el encabezado:
public static String sailda(char[][] x, int i, int j, int M, int N) {
if (x[i][j] == & ) return "("+i+","+j+")";
String l = s.nextLine();
if (x[i][j] == '*' || x[i][j] == '+') return null;
x[i][j] = '+';
String camino = (salida2(x, i+1, j, M, N));
if (camino != null) return "("+i+","+j+")"+camino;
camino = (salida2(x, i-1, j ,M, N));
if (camino != null) return "("+i+","+j+")"+camino;
camino = (salida2(x, i, j+1, M, N));
if (camino != null) return "("+i+","+j+")"+camino;
camino = (salida2(x, i, j-1, M, N));
if (camino != null) return "("+i+","+j+")"+camino;
return null;
Finalmente, queremos saber cuánto mide el camino (de existir) entre la celda i,j y la salida más próxima. Para esto tenemos
que probar todas las posibilidades y nos quedamos con la mejor (más corta):
public static int sailda(char[][] x, int i, int j, int M, int N) {
if (x[i][j] == & ) return 0;
String l = s.nextLine();
if (x[i][j] == '*' || x[i][j] == '+') return -1;
int mascorto = M*N+1;
x[i][j] = '+';
int camino = (salida3(x, i+1, j, M, N));
if (camino != -1 && camino < mascorto) mascorto = camino;
camino = (salida3(x, i-1, j ,M, N));
if (camino != -1 && camino < mascorto) mascorto = camino;
camino = (salida3(x, i, j+1, M, N));
if (camino != -1 && camino < mascorto) mascorto = camino;
camino = (salida3(x, i, j-1, M, N));
if (camino != -1 && camino < mascorto) mascorto = camino;
x[i][j] = ' ';
if (mascorto == M*N+1) return -1;
return mascorto +1;
Hagamos una función que me ayuda a evaluar qué tan buena es una jugada en el gato. Esto suponiendo que tanto mi
contrincante como yo vamos a seguir escogiendo la mejor jugada posible en cada etapa.
//retorno 1 si gano con la jugada x,y, 0 si empato, -1 si pierdo
//suponiendo que el contrincante hace su mejor jugada
int gato(char[][] t, int x, int y, char z) {
t[x][y] = z;
//si gano retorno 1
if (gano(t, z))
return 1;
if (empate(t,x,y,z))
return 0;
char contrincante = 'O';
if (z == 'O')
contrincante = 'X';
int mejorCont = -1;
for (int i = 0; i <= 2; i++)
for (int j = 0; j <= 2; j++)
if (t[i][j] == ' ') {
int c = gana(t,i,j,contrincante);
if (c > mejorCont)
mejorCont = c;
return -mejorCont:
boolean gano(char[][] t, char z) {
boolean gane = false;
if (t[0][0] == z && t[0][1] == z && t[0][2] == z)
gane = true;
if (t[1][0] == z && t[1][1] == z && t[1][2] == z)
gane = true;
if (t[2][0] == z && t[2][1] == z && t[2][2] == z)
gane = true;
if (t[0][0] == z && t[0][1] == z && t[0][2] == z)
gane = true;
if (t[1][0] == z && t[1][1] == z && t[1][2] == z)
gane = true;
if (t[1][1] == z && t[1][2] == z && t[1][3] == z)
gane = true;
if (t[2][0] == z && t[2][1] == z && t[2][2] == z)
gane = true;
if (t[0][0] == z && t[1][1] == z && t[2][2] == z)
gane = true;
if (t[2][0] == z && t[1][1] == z && t[0][2] == z)
gane = true;
return gane;
boolean empate(char[][] t) {
//se empata cuando el tamblero esta lleno
for (int i = 0; i <= 2; i++)
for (int j = 0; j <= 2; j++)
if (t[i][j] != ' ')
return false;
return true;
Problema de las n Reinas: En un tablero de ajedrez de nxn poner n reinas de modo que no se ataquen entre sí. ¡Este problema no tiene
4. "Dividir para reinar"
Este es un método de diseño de algoritmos que se basa en subdividir el problema en sub-problemas, resolverlos
recursivamente, y luego combinar las soluciones de los sub-problemas para construir la solución del problema original.
Ejemplo: Multiplicación de Polinomios.
Supongamos que tenemos dos polinomios con ncoeficientes, o sea, de grado n-1:
A(x) = a0+a1*x+ ... +an-1*xn-1
B(x) = b0+b1*x+ ... +bn-1*xn-1
representados por arreglos a[0], ..., a[n-1]y b[0], ..., b[n-1]. Queremos calcular los coeficientes del polinomio C(x)
tal que C(x) = A(x)*B(x).
Un algoritmo simple para calcular esto es:
// Multiplicación de polinomios
for( k=0; k<=2*n-2; ++k )
c[k] = 0;
for( i=0; i<n; ++i)
for( j=0; j<n; ++j)
c[i+j] += a[i]*b[j];
Evidentemente, este algoritmo requiere tiempo O(n2). ¿Se puede hacer más rápido?
Supongamos que nes par, y dividamos los polinomios en dos partes. Por ejemplo, si
A(x) = 2 + 3*x - 6*x2 + x3
entonces se puede reescribir como
A(x) = (2+3*x) + (-6+x)*x2
y en general
A(x) = A'(x) + A"(x) * xn/2
B(x) = B'(x) + B"(x) * xn/2
C = (A' + A"*xn/2) * (B' + B"*xn/2)
= A'*B' + (A'*B" + A"*B') * xn/2 + A"*B" * xn
Esto se puede implementar con 4 multiplicaciones recursivas, cada una involucrando polinomios de la mitad del tamaño que
el polinomio original. Si llamamos T(n)al número total de operaciones, éste obedece la ecuación de recurrencia
T(n) = 4*T(n/2) + K*n
donde Kes alguna constante cuyo valor exacto no es importante.
Teo ema
Las ecuaciones de la forma
T(n) = p*T(n/q) + K*n
tienen solución
T(n) = O(nlogq p)
T(n) = O(n)
T(n) = O(n log n)
Veamos: “Desenrollando” la ecuación una vez:
Desenrollando la ecuación j veces
Lo que se puede escribir como
veces hay que desenrollarlo para que n/(qj) sea igual 1? Respuesta: logqn
Reemplazando entonces j por logqn
Por lo tanto el algoritmo demora
Por lo tanto la solución del problema planteado (p=4, q=2) es
T(n) = O(nlog2 4) = O(n2)
lo cual no mejora al algoritmo visto inicialmente.
Pero... hay una forma más eficiente de calcular C(x). Si calculamos:
D = (A'+A") * (B'+B")
E = A'*B'
F = A"*B"
C = E + (D-E-F)*xn/2 + F*xn
Lo cual utiliza sólo 3 multiplicaciones recursivas, en lugar de 4. Esto implica que
T(n) = O(nlog2 3) = O(n1.59)
Propuesto: demuestre que si p = q entonces T(n) tiene solución O(n log n)
demuestre que si p < q entonces T(n) tiene solución O(n)
5. Recursividad y Tabulación (Programación Dinámica)
A veces la simple recursividad no es eficiente.
Ejemplo: Números de Fibonacci.
Los números de Fibonacci se definen mediante la recurrencia
fn = fn-1+fn-2
f0 = 0
f1 = 1
cuyos primeros valores son
n 0 1 2 3 4 5 6 7 8 9 10 11 . . .
fn 0 1 1 2 3 5 8 13 21 34 55 89 . . .
Se puede demostrar que los números de Fibonacci crecen exponencialmente, como una función O(øn)donde ø=1.618....
El problema que se desea resolver es calcular fnpara un ndado.
La definición de la recurrencia conduce inmediatamente a una solución recursiva:
public static int F( int n )
if( n<= 1)
return n;
return F(n-1)+F(n-2);
Lamentablemente, este método resulta muy ineficiente. En efecto, si llamamos T(n) al número de operaciones de suma
ejecutadas para calcular fn, tenemos que
T(0) = 0
T(1) = 0
T(n) = 1 + T(n-1) + T(n-2)
La siguiente tabla mustra los valores de T(n)para valores pequeños de n:
0 1 2 3 4 5 6 7 8 9 10 ...
T(n) 0 0 1 2 4 7 12 20 33 54 88 ...
Ejercicio: Demostrar que T(n) = fn+1-1.
Por lo tanto, el tiempo que demora el cálculo de F(n)crece exponencialmente con n, lo cual hace que este método sea inútil
excepto para valores muy pequeños de n.
El origen de esta ineficiencia es que la recursividad calcula una y otra vez los mismos valores, porque no guarda memoria de
haberlos calculado antes.
Una forma de evitarlo es utilizar un arreglo auxiliar fib[], para anotar los valores ya calculados. Un método general es
inicializar los elementos de fibcon algún valor especial "nulo". Al llamar a F(n), primero se consulta el valor de fib[n]. Si
éste no es "nulo", se retorna el valor almacenado en el arreglo. En caso contrario, se hace el cálculo recursivo y luego se anota
en fib[n]el resultado, antes de retornarlo. De esta manera, se asegura que cada valor será calculado recursivamente sólo
una vez.
En casos particulares, es posible organizar el cálculo de los valores de modo de poder ir llenando el arreglo en un orden tal
que, al llegar a fib[n], ya está garantizado que los valores que se necesitan (fib[n-1] y fib[n-2]) ya hayan sido llenados
previamente. En este caso, esto es muy sencillo, y se logra simplemente llenando el arreglo en orden ascendente de
fib[0] = 0;
fib[1] = 1;
for( j=2; j<=n; ++j )
fib[j] = fib[j-1]+fib[j-2];
El tiempo total que esto demora es O(n).
Esta idea se llama programaci n dinámica cuando se la utiliza para resolver problemas de optimización, y veremos algunas
aplicaciones importantes de ella a lo largo del curso.
¿Es posible calcular fn más rápido que O(n)? Si bien podría parecer que para calcular fn sería necesario haber calculado
todos los valores anteriores, esto no es cierto, y existe un método mucho más eficiente.
fn = fn-1+fn-2
f0 = 0
f1 = 1
Esta es una ecuación de recurrencia de segundo orden, porque fn depende de los dos valores inmediatamente anteriores.
Definamos una función auxiliar
gn = fn-1
Con esto, podemos re-escribir la ecuación para fncomo un sistema de dos ecuaciones de primer orden:
= fn-1+gn-1
= fn-1
Lo anterior se puede escribir como la ecuación vectorial
fn = A*fn-1
fn = [ fn ]
[ gn ]
con la condición inicial
f1 = [ 1 ]
La solución de esta ecuación es
fn = An-1*f1
lo cual puede calcularse en tiempo O(log n)usando el método rápido de elevación a potencia visto anteriormente.
6. Conceptos de Programación Orientada al Objeto (OOP)
Un objeto combina datos y operaciones (métodos).
El principio básico es el de encapsulamiento (ocultamiento de información). Esto permite separar el "qué" (especificación
funcional, pública) del "cómo" (implementación, privada).
Conceptos asociados a la programación orientada a objetos, para apoyar la reutilización de codigo:
Código genérico: la lógica de un algoritmo debe poder escribirse independientemente del tipo de los datos.
Herencia: permite extender la funcionalidad de un objeto.
Polimorfismo: permite que se seleccione automáticamente la operación apropiada según el tipo y número de los
En Java un objeto es una instancia de una clase.
// Clase Entero, que permite leer y
// guardar un valor en una variable entera
public class Entero
// Datos privados
private int valor;
// Métodos públicos
public int leer()
return valor;
public void guardar( int x )
valor = x;
// Ejemplo de programa principal
public class Prueba
public static void main( String[] args )
Entero m = new Entero();
m.guardar( 5 );
System.out.println( "m=" + m.leer() );
Tipos de métodos
Permiten inicializar el objeto. Puede haber varios constructores con distinto número y tipos de parámetros.
Si no hay un constructor definido, los campos se inicializan automáticamente con valores nulos.
El constructor debe tener el mismo nombre que la clase.
Ejemplo: Clase para almacenar fechas:
public class Fecha
private int a;
private int m;
private int d;
// Constructor con parámetros
public Fecha( int aa, int mm, int dd )
a = aa;
m = mm;
d = dd;
// Constructor sin parámetros
public Fecha()
a = 2001;
m = 1;
d = 1;
Ejemplos de uso:
Fecha f1 = new Fecha();
Fecha f2 = new Fecha( 2001, 4, 11 );
"Mutators" y "accessors"
Las variables de una clase tipicamente son privadas. Para mirar su valor, o para modificarlo, hay que utilizar métodos ad hoc
(como leery guardaren el ejemplo de la clase Entero).
Esto es un mayor grado de burocracia, pero aisla a los usuarios de una clase de los detalles de implementación de ella, y
evita que se vean afectados por eventuales cambios en dicha implementación.
Al imprimir un objeto ausando println, automáticamente se invoca a
para convertirlo a una forma imprimible. Esto mismo ocurre cada vez que se utiliza aen un contexto de String.
En el ejemplo, si vamos a imprimir objetos de tipo Fecha, debemos proveer una implementación de toStringdentro de esa
public String toString()
return d + "/" + m + "/" + a;
El método equalsse utiliza para ver si dos objetos tienen el mismo valor. Se invoca
if( x.equals(y) )
y se declara como
public boolean equals( Object b )
El tipo Objectusado aquí es un tipo de objeto "universal" del cual se derivan todos los otros. El siguiente ejemplo muestra una
implementación de equalspara la clase Fecha:
public boolean equals( Object b )
if( !(b instanceof Fecha) )
return false; // el otro objeto no era de tipo Fecha
Fecha f = (Fecha) b; // para verlo como una Fecha
return a==f.a && m==f.m && d==f.d;
La referencia this identifica al objeto actual. Permite desde dentro de la clase accesar los campos propios diciendo, por
ejemplo, this.a. Esto en realidad es redundante, porque significa lo mismo que decir simplemente a, pero puede ser más
claro en la lectura.
También permite comparar si este objeto es el mismo que otro (no sólo si tienen el mismo contenido, sino si ambas
referencias apuntan al mismo objeto).
El otro uso de this es como constructor, para llamar a otro constructor de la misma clase. Por ejemplo, el constructor sin
parámetros de la clase Fechapodría haber sido declarado como:
public Fecha()
this( 2001, 1, 1 );
Campos estáticos
Hay dos tipos de campos estáticos:
public final static double PI = 3.14159; // constante
private static int precioActual = 1300; // variable compartida
// por todos los objetos de esa clase
Métodos estáticos
Los métodos estáticos están asociados a una clase, no a objetos particulares dentro de ella.
Los métodos estáticos no pueden hacer uso de la referencia this.
Las clases se pueden agrupar en "paquetes". Para esto, cada clase debe precederse de
package P;
class C
Cuando a una variable no se le pone publicni private, es visible sólo dentro del mismo package.
La clase Cse denomina P.C, pero si antes decimos import P.C;o bien import P.*;, entonces podemos referirnos a la clase
simplemente como C;
Principio que permite reutilizar trabajo ya hecho. Se basa en la relación is-a.
C rculo i -a Figura
Auto i -a Veh culo
Las clases forman una jerarquía en base a la relación de herencia.
Otro tipo de relación distinta es has-a. Por ejemplo:
Auto ha -a Manubrio
Este tipo de relación se llama agregaci n y a menudo es más importante que la herencia.
Clase base:
La clase de la cual se derivan otras
Clase derivada:
Hereda todas las propiedades de la clase base. Luego puede agregar campos y métodos, o redefinir métodos.
Los cambios que se hagan en la clase derivada no afectan a la clase base.
public class Deri ada extends Base
Los campos adicionales generalmente son privados.
Los métodos de la clase base que no se redefinen en la clase derivada se heredan sin cambio, excepto por el
Los métodos que se redefinen tienen prioridad.
Se pueden agregar nuevos métodos.
Los métodos públicos se pueden redefinir como privados.
Los campos privados de la clase base no se ven desde las clases derivadas. Para que un campo de este tipo sea visible
debe declararse como protected. Esta posibilidad debe usarse con mucho cuidado.
Cada clase define su propio constructor, el cual lleva el mismo nombre que la clase.
Si no se define un constructor, se genera automáticamente un constructor sin parámetros que:
llama al constructor con cero parámetros de la clase base, para la parte heredada, y luego
inicializa con valores nulos los campos restantes.
Si se escribe un constructor, su primera instrucción puede ser una llamada a
super( ... );
lo cual invoca al constructor de la clase base.
Si un método se declara como final, entonces no puede ser redefinido en las clases derivadas.
Análogamente, una clase declarada como finalno puede ser extendida.
Métodos abstractos
Un método abstracto declara funcionalidad, pero no la implementa. Las clases derivadas deben proveer implementaciones
para estos métodos.
Una clase abstracta es una clase que tiene al menos un método abstracto. No se puede crear objetos pertenecientes a una
clase abstracta (no se puede ejecutar new).
abstract class Figura
private String nombre;
abstract public double area();
public Figura( String n )
nombre = n;
// Este constructor no puede ser invocado directamente,
// sólo lo usan las clases derivadas
final public double compArea( Figura b )
return area() - b.area();
final public String toString()
return nombre + " de area " + area();
// Clases derivadas
public class Circulo extends Figura
static final private double PI = 3.141592653;
private double radio;
public Circulo( double r )
super( "circulo" );
radio = r;
public double area()
return PI*radio*radio;
public class Rectangulo extends Figura
private double largo;
private double ancho;
public Rectangulo( double l, double a )
super( "rectangulo" );
largo = l;
ancho = a;
public double area()
return largo*ancho;
public class Cuadrado extends Rectangulo
public Cuadrado( double lado )
super( lado, lado );
Herencia múltiple
En algunos lenguajes, una clase puede heredar de más de una clase base. En Java esto no se permite, lo cual evita los
conflictos que se podrían producir al heredarse definiciones incompatibles de métodos y variables.
Una interfaz es un mecanismo que permite lograr algunos de los efectos de la herencia múltiple, sin sus problemas.
Una interfaz es una clase que sólo tiene métodos públicos abstractos y campos públicos estáticos finales.
Se dice que una clase implementa a la interfaz si provee definiciones para todos los métodos abstractos de la interfaz.
Una clase puede extender sólo a una clase base, pero puede implementar muchas interfaces.
package Definiciones;
public interface Comparable
public int Compare( Comparable b );
final public class Entero implements Comparable
private int valor;
public Entero( int x )
valor = x;
public String toString()
return Integer.toString( valor );
public int valorEntero()
return valor;
public int Compare( Comparable b )
return valor - ((Entero) b).valor;
Uso de interfaces para implementar componentes genéricas
Ejemplo: Ordenación por inserción que ordena objetos de cualquier tipo.
package Ordenacion;
import Definiciones.*;
public static void insercion( Comparable[] a )
for( int k=0; k<a.length; ++k )
int j;
Comparable t = a[k];
for( j=k; j>0 &&
t.Compare(a[j-1])<0; --j)
a[j] = a[j-1];
a[j] = t;
Ejemplo de uso: Ordenar enteros entregados como argumentos.
import Definiciones.*;
public class PruebaOrdenacion
public static void main( String[] args )
Entero[] a = new Entero[args.length];
for( int i=0; i<args.length; ++i )
a[i] = new Entero( Integer.parseInt(args[i]) );
Ordenacion.insercion( a );
for( int i=0; i<a.length; ++i )
System.out.println( a[i] );
Estructuras de datos básicas
1. Arreglos.
2. Punteros y variables de referencia.
3. Listas enlazadas.
4. rboles.
rboles binarios.
rboles generales.
Toda la información que se maneja dentro de un computador se encuentra almacenada en su
memoria, que en términos simples es una secuencia de caracteres (bytes) en donde se
encuentran las instrucciones y datos a los que se accede directamente a través del procesador
del computador.
Los sistemas o métodos de organización de datos que permiten un almacenamiento eficiente de
la información en la memoria del computador son conocidos como estructuras de datos. Estos
métodos de organización constituyen las piezas básicas para la construcción de algoritmos
complejos, y permiten implementarlos de manera eficiente.
En el presente capítulo se presentan las estructuras de datos básicas como son arreglos, listas
enlazadas y árboles, con las cuales se implementarán posteriormente los tipos de datos
Un arreglo es una secuencia contigua de un número fijo de elementos homogéneos. En la
siguiente figura se muestra un arreglo de enteros con 10 elementos:
En Java un arreglo se define como:
ipo[] nombre = new ipo[n_elem];
donde ipo corresponde al tipo de los elementos que contendrá el arreglo (enteros, reales,
caracteres, etc..), nombrecorresponde al nombre con el cual se denominará el arreglo, y n_elem
corresponde al número de elementos que tendrá el arreglo. Para el caso del ejemplo presentado,
la declaración del arreglo de enteros es:
int[] arreglo = new int[10];
Para acceder a un elemento del arreglo se utiliza un índice que identifica a cada elemento de
manera única. Los índices en Java son números enteros correlativos y comienzan desde cero, por
lo tanto, si el arreglo contiene n_elem elementos el índice del último elemento del arreglo es
n_elem-1. El siguiente código muestra como se puede inicializar el arreglo del ejemplo, luego de
ser declarado:
arreglo[0]=80; //el primer indice de los arreglos en Java es 0
arreglo[9]=34; //el ultimo indice del arreglo es 10-1 = 9
También se puede declarar e inicializar el arreglo en una sola línea:
int[] arreglo={80, 45, 2, 21, 92, 17, 5, 65, 14, 34 ;
Una ventaja que tienen los arreglos es que el costo de acceso de un elemento del arreglo es
constante, es decir no hay diferencias de costo entre accesar el primer, el último o cualquier
elemento del arreglo, lo cual es muy eficiente. La desventaja es que es necesario definir a priori el
tamaño del arreglo, lo cual puede generar mucha pérdida de espacio en memoria si se definen
arreglos muy grandes para contener conjuntos pequeños de elementos (Nota: en Java es posible
hacer crecer el tamaño de un arreglo de manera dinámica).
Punteros y variables de referencia
Un puntero es una variable que almacena la dirección de memoria de otra variable, es decir,
almacena el valor del lugar físico en la memoria en donde se encuentra almacenada dicha
variable. Si se imagina que la memoria del computador es un gran arreglo de bytes, la dirección
de memoria correspondería al índice de los casilleros de dicho arreglo, que es precisamente lo
que se almacena en el puntero.
En algunos lenguajes de programación, por ejemplo C, es posible declarar explícitamente
punteros para distintos tipos de variables, e incluso es posible realizar aritmética de punteros
para realizar operaciones de manera muy eficiente, a cambio de "oscurecer" el código del
programa y con una alta probabilidad de cometer errores de programación díficiles de detectar.
En Java no se puede declarar punteros de manera explícita ni tampoco realizar aritmética de
punteros. Por lo tanto es imposible en Java tener un puntero a cualquiera de los tipos primitivos:
enteros, reales, caracteres y booleanos. Los strings y arreglos no son tipos primitivos en Java.
Una variable de referencia, o simplemente una referencia, es una variable que almacena la
dirección de memoria en donde se ubica un objeto. Nótese que si bien la definición es
prácticamente idéntica a la de puntero, la diferencia radica en que una referencia sólo puede
apuntar a objetos residentes en memoria, lo cual excluye a los tipos primitivos. A partir de esta
definición se puede concluir que toda variable en Java, que no sea de tipo primitivo, es una
Por ejemplo, todas las clases en Java heredan de la clase Object. Una instancia de ésta clase se
declara como:
Object aux=new Object();
La variable aux es una referencia a un objeto de la clase Object que permite saber la ubicación
de dicho objeto dentro de la memoria, información suficiente para poder operar con él.
Intuitivamente, la referencia es como una "flecha" que nos indica la posición del objeto que
Listas enlazadas
Una lista enlazada es una serie de nodos, conectados entre sí a través de una referencia, en
donde se almacena la información de los elementos de la lista. Por lo tanto, los nodos de una lista
enlazada se componen de dos partes principales:
class NodoLista
Object elemento;
NodoLista siguiente;
La referencia contenida en el nodo de una lista se denomina siguiente, pues indica en dónde se
encuentra el siguiente elemento de la lista. El último elemento de la lista no tiene nodo siguiente,
por lo que se dice que la referencia siguiente del último elemento es null (nula).
La siguiente figura muestra un ejemplo de una lista enlazada cuyos elementos son strings:
La referencia lista indica la posición del primer elemento de la lista y permite acceder a todos los
elementos de ésta: basta con seguir las referencias al nodo siguiente para recorrer la lista.
NodoLista aux=lista;
Siguiendo con el ejemplo anterior, para insertar un nuevo nodo justo delante del nodo
referenciado por aux se deben modificar las referencias siguiente del nodo aux y del nodo a
NodoLista nuevo=new NodoLista(...);
//"nuevo" es la referencia del nodo a insertar en la lista
//Notese que no es lo mismo realizar los cambios de referencia
//en un orden distinto al presentado, puesto que en ese caso
//se "pierde" la lista desde el nodo siguiente a aux
El procedimiento presentado a continuación es un ejemplo de cómo se programa el recorrido de
una lista enlazada. Se supondrá que los objetos almacenados en cada nodo son strings:
void recorrido(NodoLista lista)
NodoLista aux=lista;
while (aux!=null)
Para invertir el orden de la lista, es decir, que el último elemento de la lista ahora sea el primero,
que el penúltimo elemento de la lista ahora sea el segundo, etc..., modificando sólo las
referencias y no el contenido de los nodos, es necesario realizar una sola pasada por la lista, y
en cada nodo visitado se modifica la referencia siguiente para que apunte al nodo anterior. Es
necesario mantener referencias auxiliares para acordarse en donde se encuentra el nodo anterior
y el resto de la lista que aún no ha sido modificada:
void invertir(NodoLista lista)
NodoLista siguiente=lista;
NodoLista anterior=null;
La implementación vista de los nodos también se conoce como lista de enlace simple, dado que
sólo contiene una referencia al nodo siguiente y por lo tanto sólo puede recorrerse en un solo
sentido. En una lista de doble enlace se agrega una segunda referencia al nodo previo, lo que
permite recorrer la lista en ambos sentidos, y en general se implementa con una referencia al
primer elemento y otra referencia al último elemento.
Una lista circular es aquella en donde la referencia siguiente del último nodo en vez de ser null
apunta al primer nodo de la lista. El concepto se aplica tanto a listas de enlace simple como
doblemente enlazadas.
En muchas aplicaciones que utilizan listas enlazadas es útil contar con un nodo cabecera,
tambien conocido como dummy o header, que es un nodo "falso", ya que no contiene
información relevante, y su referencia siguiente apunta al primer elemento de la lista. Al utilizar un
nodo cabecera siempre es posible definir un nodo previo a cualquier nodo de la lista, definiendo
que el previo al primer elemento es la cabecera.
Si se utiliza un nodo cabecera en una lista de doble enlace ya no es necesario contar con las
referencias primero y último, puesto que el nodo cabecera tiene ambas referencias: su referencia
siguiente es el primer elemento de la lista, y su referencia anterior es el último elemento de la
lista. De esta forma la lista de doble enlace queda circular de una manera natural.
Un árbol se define como una colección de nodos organizados en forma recursiva. Cuando hay 0
nodos se dice que el árbol esta vacío, en caso contrario el árbol consiste en un nodo denominado
raíz, el cual tiene 0 o más referencias a otros árboles, conocidos como subárboles. Las raíces de
los subárboles se denominan hijos de la raíz, y consecuentemente la raíz se denomina padre de
las raíces de sus subárboles. Una visión gráfica de esta definición recursiva se muestra en la
siguiente figura:
Los nodos que no poseen hijos se denominan hojas. Dos nodos que tienen el padre en común se
denominan hermanos.
Un camino entre un nodo n1 y un nodo nk está definido como la secuencia de nodos n1, n2, ..., nk
tal que ni es padre de ni+1, 1 <= i < k. El largo del camino es el número de referencias que
componen el camino, que para el ejemplo son k-1. Existe un camino desde cada nodo del árbol a
sí mismo y es de largo 0. Nótese que en un árbol existe un único camino desde la raíz hasta
cualquier otro nodo del árbol. A partir del concepto de camino se definen los conceptos de
ancestro y descendiente: un nodo n es ancestro de un nodo m si existe un camino desde n a m;
un nodo n es descendiente de un nodo m si existe un camino desde m a n.
Se define la profundidad del nodo nk como el largo del camino entre la raíz del arbol y el nodo nk .
Esto implica que la profundidad de la raíz es siempre 0. La altura de un nodo nk es el máximo
largo de camino desde nk hasta alguna hoja. Esto implica que la altura de toda hoja es 0. La
altura de un árbol es igual a la altura de la raíz, y tiene el mismo valor que la profundidad de la hoja
más profunda. La altura de un árbol vacío se define como -1.
La siguiente figura muestra un ejemplo de los conceptos previamente descritos:
A es la raíz del árbol.
A es padre de B, C y D.
E y F son hermanos, puesto que ambos son hijos de B.
E, J, K, L, C, P, Q, H, N y O son las hojas del árbol.
El camino desde A a J es único, lo conforman los nodos A-B-F-J y es de largo 3.
D es ancestro de P, y por lo tanto P es descendiente de D.
L no es descendiente de C, puesto que no existe un camino desde C a L.
La profundidad de C es 1, de F es 2 y de Q es 4.
La altura de C es 0, de F es 1 y de D es 3.
La altura del árbol es 4 (largo del camino entre la raíz A y la hoja más profunda, P o Q).
rboles binarios
Un árbol binario es un árbol en donde cada nodo posee 2 referencias a subárboles (ni más, ni
menos). En general, dichas referencias se denominan izquierda y derecha, y consecuentemente
se define el subárbol izquierdo y subárbol derecho del arbol.
En este caso, la implementacion del nodo de un árbol binario es como sigue:
class NodoArbolBinario
Object elemento;
NodoArbolBinario izq;
NodoArbolBinario der;
Los nodos en sí que conforman un árbol binario se denominan nodos internos, y todas las
referencias que son null se denominan nodos externos.
Propiedades de los rboles binarios
Propiedad 1:
Si se define i = número de nodos internos, e = número de nodos externos, entonces se tiene
e = i+1
Demostración: inducción sobre i (ejercicio).
Propiedad 2:
Sea n = número de nodos internos. Se define:
I = suma del largo de los caminos desde la raíz a cada nodo interno (largo de caminos
E = suma del largo de los caminos desde la raíz a cada nodo externo (largo de caminos
Se iene q e:
E = I +2
Demostración: inducción sobre n (ejercicio).
Propiedad 3:
¿Cuántos árboles binarios distintos se pueden construir con n nodos internos?
0 1
1 1
2 2
3 5
b ?
Por ejemplo: b4 = b0*b3 + b1*b2 + b2*b1 + b3*b0 = 5 + 2 + 2 + 5 = 14.
Este tipo de ecuaciones se puede resolver y la solución es la siguiente:
La serie de numeros que genera b se conoce como números de Catalan. Asintóticamente:
Ejemplo: rboles de expresiones matem ticas
La siguiente figura muestra un ejemplo de un árbol de expresiones matemáticas. En un árbol de
expresiones las hojas corresponden a los operandos de la expresión (variables o constantes),
mientras que los nodos restantes contienen operadores. Dado que los operadores matemáticos
son binarios (o unarios como en el caso del operador signo -), un árbol de expresiones resulta ser
un árbol binario.
Un árbol de expresiones se puede evaluar de la siguiente forma:
Si la raíz del árbol es una constante o una variable se retorna el valor de ésta.
Si la raíz resulta ser un operador, entonces recursivamente se evalúan los subárboles
izquierdo y derecho, y se retorna el valor que resulta al operar los valores obtenidos de las
evaluaciones de los subárboles con el operador respectivo.
Recorridos de rboles binarios
Existen tres formas principales para recorrer un árbol binario en forma recursiva. Estas son:
Preorden: raíz - subárbol izquierdo - subárbol derecho.
Inorden: subárbol izquierdo - raiz - subárbol derecho.
Postorden: subárbol izquierdo - subárbol derecho - raíz.
Por ejemplo, al recorrer el árbol de expresiones anterior en preorden se obtiene:
Al recorrer el árbol en inorden se obtiene:
Al recorrer el árbol en postorden se obtiene:
La expresión que se obtiene con el recorrido en postorden se conoce como notación polaca.
rboles generales
En un árbol general cada nodo puede poseer un número indeterminado de hijos. La
implementación de los nodos en este caso se realiza de la siguiente manera: como no se sabe
de antemano cuantos hijos tiene un nodo en particular se utilizan dos referencias, una a su primer
hijo y otra a su hermano más cercano. La raíz del árbol necesariamente tiene la referencia a su
hermano como null.
class NodoArbolGeneral
Object elemento;
NodoArbolGeneral hijo;
NodoArbolGeneral hermano;
Nótese que todo árbol general puede representarse como un árbol binario, con la salvedad que el
hijo derecho de la raíz es siempre null. Si se permite que la raíz del árbol tenga hermanos, lo que
se conoce como bosque, entonces se tiene que el conjunto de los bosques generales es
isomorfo al conjunto de los árboles binarios. En efecto, las propiedades vistas en los árboles
binarios se siguen cumpliendo en los árboles generales.
Tipos de datos abstractos
TDA lista.
TDA pila.
TDA cola.
TDA cola de prioridad
Un Tipo de dato abstracto (en adelante TDA) es un conjunto de datos u objetos al cual se le
asocian operaciones. El TDA provee de una interfaz con la cual es posible realizar las
operaciones permitidas, abstrayéndose de la manera en como estén implementadas dichas
operaciones. Esto quiere decir que un mismo TDA puede ser implementado utilizando distintas
estructuras de datos y proveer la misma funcionalidad.
El paradigma de orientación a objetos permite el encapsulamiento de los datos y las
operaciones mediante la definición de clases e interfaces, lo cual permite ocultar la manera en
cómo ha sido implementado el TDA y solo permite el acceso a los datos a través de las
operaciones provistas por la interfaz.
En este capítulo se estudiarán TDA básicos como lo son las listas, pilas y colas, y se mostrarán
algunos usos prácticos de estos TDA.
TDA lista
Una lista se define como una serie de N elementos E1, E2, ..., EN, ordenados de manera
consecutiva, es decir, el elemento E (que se denomina elemento k-ésimo) es previo al elemento
E +1. Si la lista contiene 0 elementos se denomina como lista vacía.
Las operaciones que se pueden realizar en la lista son: insertar un elemento en la posición k,
borrar el k-ésimo elemento, buscar un elemento dentro de la lista y preguntar si la lista esta vacía.
Una manera simple de implementar una lista es utilizando un arreglo. Sin embargo, las
operaciones de inserción y borrado de elementos en arreglos son ineficientes, puesto que para
insertar un elemento en la parte media del arreglo es necesario mover todos los elementos que
se encuentren delante de él, para hacer espacio, y al borrar un elemento es necesario mover
todos los elementos para ocupar el espacio desocupado. Una implementación más eficiente del
TDA se logra utilizando listas enlazadas.
A continuación se presenta una implementación en Java del TDA utilizando listas enlazadas y sus
operaciones asociadas:
estaVacia(): devuelve verdadero si la lista esta vacía, falso en caso contrario.
insertar(x, k): inserta el elemento x en la k-ésima posición de la lista.
buscar(x): devuelve la posición en la lista del elemento x.
buscarK(k): devuelve el k-ésimo elemento de la lista.
eliminar(x): elimina de la lista el elemento x.
En la implementación con listas enlazadas es necesario tener en cuenta algunos detalles
importantes: si solamente se dispone de la referencia al primer elemento, el añadir o remover en
la primera posición es un caso especial, puesto que la referencia a la lista enlazada debe
modificarse según la operación realizada. Además, para eliminar un elemento en particular es
necesario conocer el elemento que lo antecede, y en este caso, ¿qué pasa con el primer
elemento, que no tiene un predecesor?
Para solucionar estos inconvenientes se utiliza la implementación de lista enlazada con nodo
cabecera. Con esto, todos los elementos de la lista tendrán un elemento previo, puesto que el
previo del primer elemento es la cabecera. Una lista vacía corresponde, en este caso, a una
cabecera cuya referencia siguiente es null.
Los archivos NodoLista.java, IteradorLista.java y Lista.java contienen una implementación
completa del TDA lista. La clase NodoLista implementa los nodos de la lista enlazada, la clase
Lista implementa las operaciones de la lista propiamente tal, y la clase IteradorLista implementa
objetos que permiten recorrer la lista y posee la siguiente interfaz:
avanzar(): avanza el iterador al siguiente nodo de la lista.
obtener(): retorna el elemento del nodo en donde se encuentra el iterador.
Costo de las operaciones en tiempo:
Insertar/eliminar elemento en k-ésima posición: O(k) (¿Se puede hacer en O(1)?).
Buscar elemento x: O(N) (promedio).
TDA pila
Una pila (stack o pushdown en inglés) es una lista de elementos de la cual sólo se puede extraer
el último elemento insertado. La posición en donde se encuentra dicho elemento se denomina
tope de la pila. También se conoce a las pilas como listas LIFO (LAST IN - FIRST OUT: el último
que entra es el primero que sale).
La interfaz de este TDA provee las siguientes operaciones:
apilar(x): inserta el elemento x en el tope de la pila (push en inglés).
desapilar(): retorna el elemento que se encuentre en el tope de la pila y lo elimina de ésta
(pop en inglés).
tope(): retorna el elemento que se encuentre en el tope de la pila, pero sin eliminarlo de
ésta (top en inglés).
estaVacia(): retorna verdadero si la pila no contiene elementos, falso en caso contrario
(isEmpty en inglés).
Nota: algunos autores definen desapilar como sacar el elemento del tope de la pila sin retornarlo.
Implementaci n del TDA pila
A continuación se muestran dos maneras de implementar una pila: utilizando un arreglo y
utilizando una lista enlazada. En ambos casos el costo de las operaciones es de O(1).
Implementaci n utilizando arreglos
Para implementar una pila utilizando un arreglo, basta con definir el arreglo del tipo de dato que
se almacenará en la pila. Una variable de instancia indicará la posición del tope de la pila, lo cual
permitirá realizar las operaciones de inserción y borrado, y también permitirá saber si la pila esta
vacía, definiendo que dicha variable vale -1 cuando no hay elementos en el arreglo.
class PilaArreglo
private Object[] arreglo;
private int tope;
private int MAX_ELEM=100; // maximo numero de elementos en la pila
public PilaArreglo()
arreglo=new Object[MAX_ELEM];
tope=-1; // inicialmente la pila esta vacía
public void apilar(Object x)
if (tope+1<MAX_ELEM) // si esta llena se produce OVERFLOW
public Object desapilar()
if (!estaVacia()) // si esta vacia se produce UNDERFLOW
Object x=arreglo[tope];
return x;
public Object tope()
if (!estaVacia()) // si esta vacia es un error
Object x=arreglo[tope];
return x;
public boolean estaVacia()
if (tope==-1)
return true;
return false;
El inconveniente de esta implementación es que es necesario fijar de antemano el número
máximo de elementos que puede contener la pila, MAX_ELEM, y por lo tanto al apilar un
elemento es necesario controlar que no se inserte un elemento si la pila esta llena. Sin embargo,
en Java es posible solucionar este problema creando un nuevo arreglo más grande que el
anterior, el doble por ejemplo, y copiando los elementos de un arreglo a otro:
public void apilar(Object x)
if (tope+1<MAX_ELEM) // si esta llena se produce OVERFLOW
Object[] nuevo_arreglo=new Object[MAX_ELEM];
for (int i=0; i<arreglo.length; i++)
Implementaci n utilizando listas enlazadas
En este caso no existe el problema de tener que fijar el tamaño máximo de la pila (aunque
siempre se está acotado por la cantidad de memoria disponible!). La implementación es
bastante simple: los elementos siempre se insertan al principio de la lista (apilar) y siempre se
extrae el primer elemento de la lista (desapilar y tope), por lo que basta con tener una referencia
al principio de la lista enlazada. Si dicha referencia es null, entonces la pila esta vacía.
class PilaLista
private NodoLista lista;
public PilaLista()
public void apilar(Object x)
lista=new NodoLista(x, lista);
public Object desapilar() // si esta vacia se produce UNDERFLOW
if (!estaVacia())
Object x=lista.elemento;
return x;
public Object tope()
if (!estaVacia()) // si esta vacia es un error
Object x=lista.elemento;
return x;
public boolean estaVacia()
return lista==null;
Dependiendo de la aplicación que se le de a la pila es necesario definir que acción realizar en
caso de que ocurra overflow (rebalse de la pila) o underflow (intentar desapilar cuando la pila esta
vacía). Java posee un mecanismo denominado excepciones, que permite realizar acciones
cuando se producen ciertos eventos específicos (como por ejemplo overflow o underflow en una
En ambas implementaciones el costo de las operaciones que provee el TDA tienen costo O(1).
Ejemplo de uso: eliminaci n de recursividad
Suponga que una función F realiza un llamado recursivo dentro de su código, lo que se ilustra en
la siguiente figura:
Si la llamada recursiva es lo último que hace la función F, entonces dicha llamada se puede
substituir por un ciclo while. Este caso es conocido como tail recursion y en lo posible hay que
evitarlo en la programación, ya que cada llamada recursiva ocupa espacio en la memoria del
computador, y en el caso del tail recursion es muy simple eliminarla. Por ejemplo:
void imprimir(int[] a, int j) // versión recursiva
if (j<a.length)
imprimir(a, j+1); // tail recursion
void imprimir(int[] a, int j) // versión iterativa
while (j<a.length)
En el caso general, cuando el llamado recursivo se realiza en medio de la función F, la recursión
se puede eliminar utilizando una pila.
Por ejemplo: recorrido en preorden de un arbol binario.
// "raiz" es la referencia a la raiz del arbol
// llamado inicial: preorden(raiz)
// version recursiva
void preorden(Nodo nodo)
if (nodo!=null)
// primera version iterativa
void preorden(Nodo nodo)
Nodo aux;
Pila pila=new Pila(); // pila de nodos
while(!pila.estaVacia()) // mientras la pila no este vacia
if (aux!=null)
// primero se apila el nodo derecho y luego el izquierdo
// para mantener el orden correcto del recorrido
// al desapilar los nodos
// segunda version iterativa
// dado que siempre el ultimo nodo apilado dentro del bloque if es
// aux.izq podemos asignarlo directamente a aux hasta que éste sea
// null, es decir, el bloque if se convierte en un bloque while
// y se cambia el segundo apilar por una asignacion de la referencia
void preorden(Nodo nodo)
Nodo aux;
Pila pila=new Pila(); // pila de nodos
while(!pila.estaVacia()) // mientras la pila no este vacia
while (aux!=null)
Si bien los programas no recursivos son más eficientes que los recursivos, la eliminación de
recursividad (excepto en el caso de tail recursion) le quita claridad al código del programa. Por lo
A menudo es conveniente eliminar el tail recursion.
Un método recursivo es menos eficiente que uno no recursivo, pero sólo en pocas
oportunidades vale la pena eliminar la recursión.
TDA cola
Una cola (queue en inglés) es una lista de elementos en donde siempre se insertan nuevos
elementos al final de la lista y se extraen elementos desde el inicio de la lista. También se conoce
a las colas como listas FIFO (FIRST IN - FIRST OUT: el primero que entra es el primero que sale).
Las operaciones básicas en una cola son:
encolar(x): inserta el elemento x al final de la cola (enqueue en inglés).
sacar(): retorna el elemento que se ubica al inicio de la cola (dequeue en inglés).
estaVacia(): retorna verdadero si la cola esta vacía, falso en caso contrario.
Al igual que con el TDA pila, una cola se puede implementar tanto con arreglos como con listas
enlazadas. A continuación se verá la implementación usando un arreglo.
Las variables de instancia necesarias en la implementación son:
primero: indica el índice de la posición del primer elemento de la cola, es decir, la posición
el elemento a retornar cuando se invoque sacar.
ultimo: indica el índice de la posición de último elemento de la cola. Si se invoca encolar, el
elemento debe ser insertado en el casillero siguiente al que indica la variable.
numElem: indica cuántos elementos posee la cola. Definiendo MAX_ELEM como el
tamaño máximo del arreglo, y por lo tanto de la cola, entonces la cola esta vacía si
numElem==0 y está llena si numElem==MAX_ELEM.
Un detalle faltante es el siguiente: ¿qué pasa si la variable ultimo sobrepasa el rango de índices
del arreglo? Esto se soluciona definiendo que si después de insertar un elemento el índice ultimo
== MAX_ELEM, entonces se asigna ultimo = 0 , y los siguientes elementos serán insertados al
comienzo del arreglo. Esto no produce ningún efecto en la lógica de las operaciones del TDA,
pues siempre se saca el elemento referenciado por el índice primero, aunque en valor absoluto
primero > ultimo. Este enfoque es conocido como implementación con arreglo circular, y la
forma más fácil de implementarlo es haciendo la aritmética de subíndices módulo MAX_ELEM.
class ColaArreglo
private Object[] arreglo;
private int primero, ultimo, numElem;
private int MAX_ELEM=100; // maximo numero de elementos en la cola
public ColaArreglo()
arreglo=new Object[MAX_ELEM];
public void encolar(Object x)
if (numElem<MAX_ELEM) // si esta llena se produce OVERFLOW
public Object sacar()
if (!estaVacia()) // si esta vacia se produce UNDERFLOW
Object x=arreglo[primero];
return x;
public boolean estaVacia()
return numElem==0;
Nuevamente en este caso, dependiendo de la aplicación, se debe definir qué hacer en caso de
Con esta implementación, todas las operaciones del TDA cola tienen costo O(1).
TDA Cola de Prioridad
Una cola de prioridad es un tipo de datos abstracto que almacena un conjunto de datos que
poseen una llave perteneciente a algún conjunto ordenado, y permite insertar nuevos elementos y
extraer el máximo (o el mínimo, en caso de que la estructura se organice con un criterio de orden
Es frecuente interpretar los valores de las llaves como prioridades, con lo cual la estructura
permite insertar elementos de prioridad cualquiera, y extraer el de mejor prioridad.
Dos formas simples de implementar colas de prioridad son:
Una lista ordenada:
Inserción: O(n)
Extracción de máximo: O(1)
Una lista desordenada:
Inserción: O(1)
Extracción de máximo: O(n)
Un heap es un árbol binario de una forma especial, que permite su almacenamiento en un arreglo
sin usar punteros.
Un heap tiene todos sus niveles llenos, excepto posiblemente el de más abajo, y en este último
los nodos están lo más a la izquierda posible.
La numeración por niveles (indicada bajo cada nodo) son los subíndices en donde cada elemento
sería almacenado en el arreglo. En el caso del ejemplo, el arreglo sería:
La característica que permite que un heap se pueda almacenar sin punteros es que, si se utiliza la
numeración por niveles indicada, entonces la relación entre padres e hijos es:
Hijo del nodo j= {2*j, 2*j+1}
Pad e del nodo k= floor(k/2)
Un heap puede utilizarse para implementar una cola de prioridad almacenando los datos de
modo que las llaves estén siempre ordenadas de arriba a abajo (a diferencia de un árbol de
búsqueda binaria, que ordena sus llaves de izquierda a derecha). En otras palabras, el padre
debe tener siempre mayor prioridad que sus hijos (ver ejemplo).
Implementaci n de las operaciones básicas
La inserción se realiza agregando el nuevo elemento en la primera posición libre del heap, esto
es, el próximo nodo que debería aparecer en el recorrido por niveles o, equivalentemente, un
casillero que se agrega al final del arreglo.
Después de agregar este elemento, la forma del heap se preserva, pero la restricción de orden
no tiene por qué cumplirse. Para resolver este problema, si el nuevo elemento es mayor que su
padre, se intercambia con él, y ese proceso se repite mientras sea necesario. Una forma de
describir esto es diciendo que el nuevo elemento "trepa" en el árbol hasta alcanzar el nivel
correcto según su prioridad.
El siguiente trozo de programa muestra el proceso de inserción de un nuevo elemento x:
for(j=n; j>1 && a[j]>a[j/2]; j/=2)
{ # intercambiamos con el padre
El proceso de inserción, en el peor caso, toma un tiempo proporcional a la altura del árbol, esto
es, O(log n).
Extracción del máximo
El máximo evidentemente está en la raíz del árbol (casillero 1 del arreglo). Al sacarlo de ahí,
podemos imaginar que ese lugar queda vacante. Para llenarlo, tomamos al ltimo elemento del
heap y lo trasladamos al lugar vacante. En caso de que no esté bien ahí de acuerdo a su prioridad
( que es lo más probable!), lo hacemos descender intercambiándolo siempre con el mayor de sus
hijos. Decimos que este elemento "se hunde" hasta su nivel de prioridad.
El siguiente trozo de programa implementa este algoritmo:
m=a[1]; # La variable m lleva el máximo
a[1]=a[n--]; # Movemos el ltimo a la raíz y achicamos el heap
while(2*j<n) # mientras tenga alg n hijo
k=2*j; # el hijo izquierdo
if(k+1<=n && a[k+1]>a[k])
k=k+1; # el hijo derecho es el mayor
break; # es mayor que ambos hijos
j=k; # lo intercambiamos con el mayor hijo
Este algoritmo también demora un tiempo proporcional a la altura del árbol en el peor caso, esto
es, O(log n).
TDA diccionario
1. Implementaciones sencillas.
Búsqueda binaria.
Búsqueda secuencial con probabilidades de acceso no uniforme.
2. Arboles de búsqueda binaria.
3. Arboles AVL.
4. Arboles 2-3.
5. Arboles B.
6. Arboles digitales.
7. Arboles de búsqueda digital.
8. Skip lists.
9. ABB óptimos.
10. Splay Trees.
11. Hashing.
Direccionamiento abierto.
Hashing en memoria secundaria.
Dado un conjunto de elementos {X1, X2, ..., XN}, todos distintos entre sí, se desea almacenarlos en una
estructura de datos que permita la implementación eficiente de las operaciones:
b squeda(X): dado un elemento X, conocido como llave de b squeda, encontrarlo dentro del
conjunto o decir que no está.
inserción(X): agregar un nuevo elemento X al conjunto.
eliminación(X): eliminar el elemento X del conjunto.
Estas operaciones describen al TDA diccionario. En el presente capítulo se verán distintas
implementaciones de este TDA y se estudiarán las consideraciones de eficiencia de cada una de dichas
Implementaciones sencillas
Una manera simple de implementar el TDA diccionario es utilizando una lista, la cual permite implementar
la inserción de nuevos elementos de manera muy eficiente, definiendo que siempre se realiza al comienzo
de la lista. El problema que tiene esta implementación es que las operaciones de b squeda y eliminación
son ineficientes, puesto que como en la lista los elementos están desordenados es necesario realizar una
b squeda secuencial. Por lo tanto, los costos asociados a cada operación son:
búsqueda: O(n) (búsqueda secuencial).
inserción: O(1) (insertando siempre al comienzo de la lista).
eliminación: O(n) (búsqueda + O(1)).
Otra manera sencilla de implementar el TDA es utilizando un arreglo ordenado. En este caso, la operación
de inserción y eliminación son ineficientes, puesto que para mantener el orden dentro del arreglo es
necesario "correr" los elementos para dejar espacio al insertar un nuevo elemento. Sin embargo, la ventaja
que tiene mantener el orden es que es posible realizar una b squeda binaria para encontrar el elemento
B squeda binaria
Suponga que se dispone del arreglo a, de tamaño n, en donde se tiene almacenado el conjunto de
elementos ordenados de menor a mayor. Para buscar un elemento x dentro del arreglo se debe:
Buscar el índice de la posición media del arreglo en donde se busca el elemento, que se denotará
m. Inicialmente, m = n/2.
Si a[m] = x se encontró el elemento (fin de la búsqueda), en caso contrario se sigue buscando en el
lado derecho o izquierdo del arreglo dependiendo si a[m] < x o a[m] > x respectivamente.
Costo de la b squeda binaria:
T(n) = 1 + T(n/2) (aproximadamente)
T(n) = 2 + T(n/4)
T(n) = 3 + T(n/8)
T(n) = k + T(n/2k ) para todo k>=0
Escogiendo k = log2n:
=> T(n) = log2n + T(1) = 1 + log2n = O(log n).
Programación de la b squeda binaria
La variable i representa el primer casillero del arreglo en donde es posible que se encuentre el elemento x,
la variable j representa el último casillero del arreglo hasta donde x puede pertenecer, con j >= i.
Inicialmente: i = 0 y j = n-1.
En cada iteración:
Si el conjunto es vacío (j-i < 0), o sea si j < i, entonces el elemento x no está en el conjunto (búsqueda
En caso contrario, m = (i+j)/2. Si x = a[m], el elemento fue encontrado (búsqueda exitosa). Si x < a[m]
se modifica j = m-1, sino se modifica i = m+1 y se sigue iterando.
public int busquedaBinaria(int []a, int x)
int i=0, j=a.length-1;
while (i<=j)
int m=(i+j)/2;
if (x==a[m])
return m;
else if (x<a[m])
return NO_ENCONTRADO; // NO_ENCONTRADO se define como -1
Eficiencia de la b squeda binaria
Si la única operación permitida entre los elementos del conjunto es la comparación, entonces qué tan
eficiente es la búsqueda binaria?.
Todo algoritmo de búsqueda basado en comparaciones corresponde a algún árbol de decisión. Cada
nodo de dicho árbol corresponde al conjunto de elementos candidatos en donde se encuentra el elemento
buscado, y que es consistente con las comparaciones realizadas entre los elementos. Los arcos del árbol
corresponden a los resultados de las comparaciones, que en este caso pueden ser mayor que o menor
que el elemento buscado, es decir, es un árbol de decisión binario.
El número de comparaciones realizadas por el algoritmo de búsqueda es igual a la altura del árbol de
decisión (profundidad de la hoja más profunda).
Lema: sea D un árbol binario de altura h. D tiene a lo más 2h hojas.
Demostración: por inducción. Si h = 0 el árbol tiene un solo nodo que necesariamente es una hoja (no tiene
hijos), con lo que se tiene el caso base. En el caso general, se tiene una raíz, que no puede ser una hoja,
que posee un subárbol izquierdo y derecho, cada uno con una altura máxima de h-1. Por hipótesis de
inducción, los subárboles pueden tener a lo más 2h-1 hojas, dando un total de a lo más 2h hojas entre
ambos subárboles. Queda entonces demostrado.
Lema: un árbol binario con H hojas debe tener una profundidad de al menos
Demostración: directo del lema anterior.
Si n es el número de nodos de elementos del conjunto, el número de respuestas posibles (hojas del árbol
de decisión) es de n+1, el lema anterior implica que el costo en el peor caso es mayor o igual que el
logaritmo del número de respuestas posibles.
Corolario: cualquier algoritmo de búsqueda mediante comparaciones se demora al menos
preguntas en el peor caso. Por lo tanto, la búsqueda binaria es óptima.
B squeda secuencial con probabilidades de acceso no uniforme
Se tiene un conjunto de elementos X1, X2, ..., XN, cuyas probabilidades de acceso son, respectivamente,
P1, P2, ..., PN. Naturalmente:
El costo esperado de la búsqueda secuencial es:
Este costo es mínimo cuando P1>=P2>=P3...>=PN.
Qué pasa si las probabilidades Pk no son conocidas de antemano? En este caso, no es posible ordenar
a priori los elementos según su probabilidad de acceso de mayor a menor.
Métodos auto-organizantes
Idea: cada vez que se accesa un elemento Xk se modifica la lista para que los accesos futuros a Xk sean
más eficientes. Algunas políticas de modificación de la lista son:
TR (transpose): se intercambia de posición Xk con Xk -1 (siempre que k>1).
MTF (move-to-front): se mueve el elemento Xk al principio de la lista.
Se puede demostrar que Costooptimo<=CostoTR<=CostoMTF<=2Costooptimo.
Arboles de b squeda binaria
Un árbol de b squeda binaria, en adelante ABB, es un árbol binario en donde todos los nodos cumplen la
siguiente propiedad (sin perder generalidad se asumirá que los elementos almacenados son números
enteros): si el valor del elemento almacenado en un nodo N es X, entonces todos los valores almacenados
en el subárbol izquierdo de N son menores que X, y los valores almacenados en el subárbol derecho de N
son mayores que X.
Los ABB permiten realizar de manera eficiente las operaciones provistas por el TDA diccionario, como se
verá a continuación.
B squeda en un ABB
Esta operación retorna una referencia al nodo en donde se encuentra el elemento buscado, X, o null si
dicho elemento no se encuentra en el árbol. La estructura del árbol facilita la búsqueda:
Si el árbol esta vacío, entonces el elemento no está y se retorna null.
Si el árbol no esta vacío y el elemento almacenado en la raiz es X, se encontró el elemento y se
retorna una referencia a dicho nodo.
Si X es menor que el elemento almacenado en la raiz se sigue buscando recursivamente en el
subárbol izquierdo, y si X es mayor que el elemento almacenado en la raíz se sigue buscando
recursivamente en el subárbol derecho.
Nótese que el orden en los cuales se realizan los pasos anteriores es crucial para asegurar que la
búsqueda en el ABB se lleve a cabo de manera correcta.
Costo de b squeda en un ABB
Peor caso
Para un árbol dado, el peor caso es igual a la longitud del camino más largo desde la raíz a una hoja, y el
peor caso sobre todos los árboles posibles es O(n).
Caso promedio
Arbol con n nodos.
Probabilidad de acceso a los elementos uniforme.
Costo de búsqueda exitosa:
donde In es el largo de caminos internos.
Costo de búsqueda infructuosa:
donde En es el largo de caminos externos.
Recordando que En=In+2n, se tiene:
Por lo tanto, la ecuación que relaciona los costos de búsqueda exitosa e infructuosa es: (*)
Esto muestra que a medida que se insertan más elementos en el ABB los costos de búsqueda exitosa e
infructuosa se van haciendo cada vez más parecidos.
El costo de inserción de un elemento en un ABB es igual al costo de búsqueda infructuosa justo antes de
insertarlo más 1. Esto quiere decir que si ya habían k elementos en el árbol y se inserta uno más, el costo
esperado de búsqueda para este último es 1+C'k . Por lo tanto:
Esta última ecuación implica que:
Restando ambas ecuaciones se obtiene: (**)
De la ecuación (*) se tiene:
Reemplazando en (**):
Obteniéndose la siguiente ecuación de recurrencia:
Desenrollando la ecuación: (***)
Se define Hn, conocido como n meros armónicos, como:
Se puede demostrar que:
Reemplazando en (***) y recordando (*) se obtiene:
Por lo tanto, el costo promedio de búsqueda en un ABB es O(log(n)).
Inserción en un ABB
Para insertar un elemento X en un ABB, se realiza una búsqueda infructuosa de este elemento en el árbol,
y en el lugar en donde debiera haberse encontrado se inserta. Como se vio en la sección anterior, el costo
promedio de inserción en un ABB es O(log(n)).
Eliminación en un ABB
Primero se realiza una búsqueda del elemento a eliminar, digamos X. Si la búsqueda fue infructuosa no se
hace nada, en caso contrario hay que considerar los siguientes casos posibles:
Si X es una hoja sin hijos, se puede eliminar inmediatamente.
Si X tiene un solo hijo, entonces se cambia la referencia del padre a X para que ahora referencie al
hijo de X.
Si X tiene dos hijos, el caso complicado, se procede de la siguiente forma: se elimina el nodo Y =
minimo nodo del subárbol derecho de X, el cual corresponde a uno de los casos fáciles de
eliminación, y se reemplaza el valor almacenado en el nodo X por el valor que estaba almacenado en
el nodo Y.
Nótese que el árbol sigue cumpliendo las propiedades de un ABB con este método de eliminación.
Si de antemano se sabe que el número de eliminaciones será pequeño, entonces la eliminación se puede
substituir por una marca que indique si un nodo fue eliminado o no. Esta estrategia es conocida como
eliminación perezosa (lazy deletion).
Arboles AVL
Definición: un árbol balanceado es un árbol que garantiza costos de búsqueda, inserción y eliminación en
tiempo O(log(n)) incluso en el peor caso.
Un árbol AVL (Adelson-Velskii y Landis) es una árbol de búsqueda binaria que asegura un costo O(log(n))
en las operaciones de búsqueda, inserción y eliminación, es decir, posee una condición de balance.
La condición de balance es: un árbol es AVL si para todo nodo interno la diferencia de altura de sus 2
árboles hijos es menor o igual que 1.
Por ejemplo: (el número dentro de cada nodo indica su altura)
Problema: para una altura h dada, cuál es el árbol AVL con mínimo número de nodos que alcanza esa
altura?. Nótese que en dicho árbol AVL la diferencia de altura de sus hijos en todos los nodos tiene que
ser 1 (demostrar por contradicción). Por lo tanto, si Ah representa al árbol AVL de altura h con mínimo
número de nodos, entonces sus hijos deben ser Ah-1 y Ah-2.
En la siguiente tabla nh representa el número de nodos externos del árbol AVL con mínimo número de
nodos internos.
Por inspección: (Fh representa los números de Fibonacci)
Por lo tanto, la altura de un árbol AVL es
AVL tiene costo de
en el peor caso.
. Esto implica automáticamente que la búsqueda en un
Inserción en un AVL
La inserción en un AVL se realiza de la misma forma que en un ABB, con la salvedad que hay que
modificar la información de la altura de los nodos que se encuentran en el camino entre el nodo insertado y
la raíz del árbol. El problema potencial que se puede producir después de una inserción es que el árbol
con el nuevo nodo no sea AVL:
En el ejemplo de la figura, la condición de balance se pierde al insertar el número 3 en el árbol, por lo que
es necesario restaurar de alguna forma dicha condición. Esto siempre es posible de hacer a través de una
modificación simple en el árbol, conocida como rotación.
Suponga que después de la inserción de un elemento X el nodo desbalanceado más profundo en el árbol
es N. Esto quiere decir que la diferencia de altura entre los dos hijos de N tiene que ser 2, puesto que
antes de la inserción el árbol estaba balanceado. La violación del balance pudo ser ocasionada por alguno
de los siguientes casos:
El elemento X fue insertado en el subárbol izquierdo del hijo izquierdo de N.
El elemento X fue insertado en el subárbol derecho del hijo izquierdo de N.
El elemento X fue insertado en el subárbol izquierdo del hijo derecho de N.
El elemento X fue insertado en el subárbol derecho del hijo derecho de N.
Dado que el primer y último caso son simétricos, asi como el segundo y el tercero, sólo hay que
preocuparse de dos casos principales: una inserción "hacia afuera" con respecto a N (primer y último
caso) o una inserción "hacia adentro" con respecto a N (segundo y tercer caso).
Rotación simple
El desbalance por inserción "hacia afuera" con respecto a N se soluciona con una rotación simple.
La figura muestra la situación antes y después de la rotación simple, y ejemplifica el cuarto caso
anteriormente descrito, es decir, el elemento X fue insertado en E, y b corresponde al nodo N. Antes de la
inserción, la altura de N es la altura de C+1. Idealmente, para recuperar la condición de balance se
necesitaria bajar A en un nivel y subir E en un nivel, lo cual se logra cambiando las referencias derecha de
b e izquierda de d, quedando este último como nueva raíz del árbol, N'. Nótese que ahora el nuevo árbol
tiene la misma altura que antes de insertar el elemento, C+1, lo cual implica que no puede haber nodos
desbalanceados más arriba en el árbol, por lo que es necesaria una sola rotación simple para devolver la
condición de balance al árbol. Nótese también que el árbol sigue cumpliendo con la propiedad de ser
Rotación doble
Claramente un desbalance producido por una inserción "hacia adentro" con respecto a N no es
solucionado con una rotación simple, dado que ahora es C quien produce el desbalance y como se vio
anteriormente este subárbol mantiene su posición relativa con una rotación simple.
Para el caso de la figura (tercer caso), la altura de N antes de la inserción era G+1. Para recuperar el
balance del árbol es necesario subir C y E y bajar A, lo cual se logra realizando dos rotaciones simples: la
primera entre d y , y la segunda entre d, ya rotado, y b, obteniéndose el resultado de la figura. A este
proceso de dos rotaciones simples se le conoce como rotación doble, y como la altura del nuevo árbol N'
es la misma que antes de la inserción del elemento, ningún elemento hacia arriba del árbol queda
desbalanceado, por lo que solo es necesaria una rotación doble para recuperar el balance del árbol
después de la inserción. Nótese que el nuevo árbol cumple con la propiedad de ser ABB después de la
rotación doble.
Eliminación en un AVL
La eliminación en árbol AVL se realiza de manera análoga a un ABB, pero también es necesario verificar
que la condición de balance se mantenga una vez eliminado el elemento. En caso que dicha condición se
pierda, será necesario realizar una rotación simple o doble dependiendo del caso, pero es posible que se
requiera más de una rotación para reestablecer el balance del árbol.
Arboles 2-3
Los árboles 2-3 son árboles cuyos nodos internos pueden contener hasta 2 elementos (todos los árboles
vistos con anterioridad pueden contener sólo un elemento por nodo), y por lo tanto un nodo interno puede
tener 2 o 3 hijos, dependiendo de cuántos elementos posea el nodo. De este modo, un nodo de un árbol 23 puede tener una de las siguientes formas:
Un árbol 2-3 puede ser simulado utilizando árboles binarios:
Una propiedad de los árboles 2-3 es que todas las hojas están a la misma profundidad, es decir, los
árboles 2-3 son árboles perfectamente balanceados. La siguiente figura muestra un ejemplo de un árbol
Nótese que se sigue cumpliendo la propiedad de los árboles binarios: nodos internos + 1 = nodos
externos. Dado que el árbol 2-3 es perfectamente balanceado, la altura de éste esta acotada por:
Inserción en un árbol 2-3
Para insertar un elemento X en un árbol 2-3 se realiza una búsqueda infructuosa y se inserta dicho
elemento en el último nodo visitado durante la búsqueda, lo cual implica manejar dos casos distintos:
Si el nodo donde se inserta X tenía una sola llave (dos hijos), ahora queda con dos llaves (tres hijos).
Si el nodo donde se inserta X tenía dos llaves (tres hijos), queda transitoriamente con tres llaves
(cuatro hijos) y se dice que está saturado (overflow).
El problema se resuelve a nivel de X y Z, pero es posible que el nodo que contiene a Y ahora este
saturado. En este caso, se repite el mismo prodecimiento anterior un nivel más arriba. Finalmente, si
la raíz es el nodo saturado, éste se divide y se crea una nueva raíz un nivel más arriba. Esto implica
que los árboles 2-3 crecen "hacia arriba".
Ejemplos de inserción en árboles 2-3:
Eliminación en un árbol 2-3
Sin perder generalidad se supondrá que el elemento a eliminar, Z, se encuentra en el nivel más bajo del
árbol. Si esto no es así, entonces el sucesor y el predecesor de Z se encuentran necesariamente en el
nivel más bajo ( por qué?); en este caso basta con borrar uno de ellos y luego escribir su valor sobre el
almacenado en Z. La eliminación también presenta dos posibles casos:
El nodo donde se encuentra Z contiene dos elementos. En este caso se elimina Z y el nodo queda
con un solo elemento.
El nodo donde se encuentra Z contiene un solo elemento. En este caso al eliminar el elemento Z el
nodo queda sin elementos (underflow). Si el nodo hermano posee dos elementos, se le quita uno y
se inserta en el nodo con underflow.
Si el nodo hermano contiene solo una llave, se le quita un elemento al padre y se inserta en el nodo
con underflow.
Si esta operación produce underflow en el nodo padre, se repite el procedimiento anterior un nivel
más arriba. Finalmente, si la raíz queda vacía, ésta se elimina.
Costo de las operaciones de búsqueda, inserción y eliminación en el peor caso:
Arboles B
La idea de los árboles 2-3 se puede generalizar a árboles t - (2t-1), donde t>=2 es un parámetro fijo, es
decir, cada nodo del árbol posee entre t y 2t-1 hijos, excepto por la raíz que puede tener entre 2 y 2t-1 hijos.
En la práctica, t puede ser bastante grande, por ejemplo t = 100 o más. Estos árboles son conocidos como
árboles B (Bayer).
Inserción en un árbol B
Se agrega una nueva llave al nivel inferior.
Si el nodo rebalsa (overflow), es decir, si queda con 2t hijos, se divide en 2 nodos con t hijos cada
uno y sube un elemento al nodo padre. Si el padre rebalsa, se repite el procedimiento un nivel más
Finalmente, si la raiz rebalsa, se divide en 2 y se crea una nueva raiz un nivel más arriba.
Eliminación en un árbol B
Se elimina la llave, y su hoja respectiva, del nivel inferior.
Si el nodo queda con menos de t hijos (underflow) se le piden prestados algunos al hermano, por
ejemplo mitad y mitad.
Si el hermano no tiene para prestar, entonces se fusionan los 2 nodos y se repite el procedimiento
con el padre.
Si la raíz queda vacía, se elimina.
Variantes de los árboles B
Arboles B*: cuando un nodo rebalsa se trasladan hijos hacia el hermano, y sólo se crea un nuevo
nodo cuando ambos rebalsan. Esto permite aumentar la utilización mínima de los nodos, que antes
era de un 50%.
Arboles B+: La información solo se almacena en las hojas, y los nodos internos contienen los
separadores que permiten realizar la búsqueda de elementos.
Arboles digitales
Suponga que los elementos de un conjunto se pueden representar como una secuencia de bits:
X = b0 b1 b2 ...b
Además, suponga que ninguna representación de un elemento en particular es prefijo de otra. Un árbol
digital es un árbol binario en donde la posición de inserción de un elemento ya no depende de su valor,
sino de su representación binaria. Los elementos en un árbol digital se almacenan solo en sus hojas, pero
no necesariamente todas las hojas contienen elementos (ver ejemplo más abajo). Esta estructura de datos
también es conocida como trie.
El siguiente ejemplo muestra un árbol digital con 5 elementos.
B squeda en un árbol digital
Para buscar un elemento X en un árbol digital se procede de la siguiente manera:
Se examinan los bits bi del elemento X, partiendo desde b0 en adelante.
Si bi = 0 se avanza por la rama izquierda y se examina el siguiente bit, bi+1.
Si bi = 1 se avanza por la rama derecha y se examina el siguiente bit.
El proceso termina cuando se llega a una hoja, único lugar posible en donde puede estar insertado
Inserción en un árbol digital
Suponga que se desea insertar el elemento X en el árbol digital. Se realiza una búsqueda infructuosa de X
hasta llegar a una hoja, suponga que el último bit utilizado en la búsqueda fue bk . Si la hoja esta vacía, se
almacena X en dicha hoja. En caso contrario, se divide la hoja utilizando el siguiente bit del elemento, bk +1,
y se repite el procedimiento, si es necesario, hasta que quede solo un elemento por hoja.
Con este proceso de inserción, la forma que obtiene el árbol digital es insensible al orden de inserción de
los elementos.
Eliminación en un árbol digital
Suponga que el elemento a eliminar es X. Se elimina el elemento de la hoja, y por lo tanto esta queda
vacía. Si la hoja vacía es hermana de otra hoja no vacía, entonces ambas se fusionan y se repite el
procedimiento mientras sea posible.
Costo promedio de b squeda en un árbol digital
El costo promedio de búsqueda en un árbol digital es mejor que en un ABB, ya que en un árbol digital la
probabilidad que un elemento se encuentre en el subárbol izquierdo o derecho es la misma, 1/2, dado que
sólo depende del valor de un bit (0 o 1). En cambio, en un ABB dicha probabilidad es proporcional al
"peso" del subárbol respectivo.
Hn son los números armónicos y P(n) es una función periódica de muy baja amplitud (O(10-6))
Arboles de b squeda digital
En este tipo de árboles los elementos se almacenan en los nodos internos, al igual que en un ABB, pero la
ramificación del árbol es según los bits de las llaves. El siguiente ejemplo muestra un árbol de b squeda
digital (ABD), en donde el orden de inserción es B, A, C, D, E:
Los ABD poseen un mejor costo promedio de búsqueda que los ABB, pero tambien es O(log(n)).
Skip lists
Al principio del capítulo se vio que una de las maneras simples de implementar el TDA diccionario es
utilizando una lista enlazada, pero también se vio que el tiempo de búsqueda promedio es O(n) cuando el
diccionario posee n elementos. La figura muestra un ejemplo de lista enlazada simple con cabecera,
donde los elementos están ordenados ascendentemente:
Sin embargo, es posible modificar la estructura de datos de la lista y así mejorar el tiempo de búsqueda
promedio. La siguiente figura muestra una lista enlazada en donde a cada nodo par se le agrega una
referencia al nodo ubicado dos posiciones más adelante en la lista. Modificando ligeramente el algoritmo
de búsqueda, a lo más
nodos son examinados en el peor caso.
Esta idea se puede extender agregando una referencia cada cuatro nodos. En este caso, a lo más
nodos son examinados:
El caso límite para este argumento se muestra en la siguiente figura. Cada 2i nodo posee una referencia al
nodo 2i posiciones más adelante en la lista. El número total de referencias solo ha sido doblado, pero
ahora a lo más
nodos son examinados durante la búsqueda. Note que la búsqueda en esta
estructura de datos es básicamente una búsqueda binaria, por lo que el tiempo de búsqueda en el peor
caso es O(log n).
El problema que tiene esta estructura de datos es que es demasiado rígida para permitir inserciones de
manera eficiente. Por lo tanto, es necesario relajar levemente las condiciones descritas anteriormente
para permitir inserciones eficientes.
Se define un nodo de nivel k como aquel nodo que posee k referencias. Se observa de la figura anterior
que, aproximadamente, la mitad de los nodos son de nivel 1, que un cuarto de los nodos son de nivel 2,
etc. En general, aproximadamente n/2i nodos son de nivel i. Cada vez que se inserta un nodo, se elige el
nivel que tendrá aleatoriamente en concordancia con la distribución de probabilidad descrita. Por ejemplo,
se puede lanzar una moneda al aire, y mientras salga cara se aumenta el nivel del nodo a insertar en 1
(partiendo desde 1). Esta estructura de datos es denominada skip list. La siguiente figura muestra un
ejemplo de una skip list:
B squeda en una skip list
Suponga que el elemento a buscar es X. Se comienza con la referencia superior de la cabecera. Se
realiza un recorrido a través de este nivel (pasos horizontales) hasta que el siguiente nodo sea mayor que
X o sea null. Cuando esto ocurra, se continúa con la búsqueda pero un nivel más abajo (paso vertical).
Cuando no se pueda bajar de nivel, esto es, ya se está en el nivel inferior, entonces se realiza una
comparación final para saber si el elemento X está en la lista o no.
Inserción en una skip list
Se procede como en la búsqueda, manteniendo una marca en los nodos donde se realizaron pasos
verticales, hasta llegar al nivel inferior. El nuevo elemento se inserta en lo posición en donde debiera
haberse encontrado, se calcula aleatoriamente su nivel y se actualizan las referencias de los nodos
marcados dependiendo del nivel del nuevo nodo de la lista.
Costo de b squeda en una skip list
El análisis del costo de búsqueda promedio en una skip list es complicado, pero se puede demostrar que
en promedio es O(log n). También se puede demostrar que si se usa una moneda cargada, es decir, que
la probabilidad que salga cara es p y la probabilidad que salga sello es q = 1-p, entonces el costo de
búsqueda es mínimo para p = 1/e (e = base del logaritmo natural).
ABB óptimos
ABB con probabilidades de acceso no uniforme
Problema: dados n elementos X1 < X2 < ... < Xn, con probabilidades de acceso conocidas p1, p2, ..., pn, y
con probabilidades de búsqueda infructuosa conocidas q0, q1, ..., qn, se desea encontrar el ABB que
minimice el costo esperado de búsqueda.
Por ejemplo, para el siguiente ABB con 6 elementos:
El costo esperado de búsqueda es:
Esto es, el costo del árbol completo es igual al "peso" del árbol más los costos de los subárboles. Si la raíz
es k:
Ci,j = Wi,j + Ci,k-1 + Ck,j
Si el árbol completo es óptimo, entonces los subárboles también lo son, pero al revés no necesariamente
es cierto, porque la raíz k puede haberse escogido mal. Luego, para encontrar el verdadero costo óptimo
C_opti,j es necesario probar con todas las maneras posibles de elegir la raíz k.
C_opti,j = mini+1<=k<=j {Wi,j + C_opti,k-1 + C_optk,j}
C_opti,i = 0 para todo i=0..n
Note que el "peso" Wi,j no depende de la variable k.
Implementación de ABB óptimos
Recursiva (equivalente a fuerza bruta): Calcular todos los árboles posibles (O(4n)).
Usando programación dinámica (tabulación):
for (i=0; i<=n; i++)
C[i,i]=0; // subarboles de tama o 0
for (l=1; l<=n; l++)
for (i=0; i<=n-l; i++)
C[i,j]=mini+1<=k<=j {W[i,j]+C[i,k-1]+C[k,j]}
Tiempo: O(n3).
Una mejora: se define ri,j como el k que minimiza mini+1<=k<=j {W[i,j]+C[i,k-1]+C[k,j]}.
Intuitivamente ri,j-1 <= ri,j <= ri+1,j, y como ri,j-1 y ri+1,j ya son conocidos al momento de calcular ri,j,
basta con calcular minri,j-1 <= k <= ri+1,j {W[i,j]+C[i,k-1]+C[k,j]}.
Con esta mejora, se puede demostrar que el método demora O(n2) (Ejercicio: demostrarlo).
Splay Trees
Esta estructura garantiza que para cualquier secuencia de M operaciones en un árbol, empezando desde
un árbol vacío, toma a lo más tiempo O(M log(N). A pesar que esto no garantiza que alguna operación en
particular tome tiempo O(N), si asegura que no existe ninguna secuencia de operaciones que sea mala.
En general, cuando una secuencia de M operaciones toma tiempo O(M f(N)), se dice que el costo
amortizado en tiempo de cada operación es O(f(N)). Por lo tanto, en un splay tree los costos amortizados
por operacion son de O(log(N)).
La idea básica de un splay tree es que después que un nodo es accesado éste se "sube" hasta la raíz del
árbol a través de rotaciones al estilo AVL. Una manera de realizar esto, que NO funciona, es realizar
rotaciones simples entre el nodo accesado y su padre hasta dejar al nodo accesado como raíz del árbol.
El problema que tiene este enfoque es que puede dejar otros nodos muy abajo en el árbol, y se puede
probar que existe una secuencia de M operaciones que toma tiempo O(M N), por lo que esta idea no es
muy buena.
La estrategia de "splaying" es similar a la idea de las rotaciones simples. Si el nodo k es accesado, se
realizaran rotaciones para llevarlo hasta la raíz del árbol. Sea k un nodo distinto a la raíz del árbol. Si el
padre de k es la raíz del árbol, entonces se realiza una rotación simple entre estos dos nodos. En caso
contrario, el nodo k posee un nodo padre p y un nodo "abuelo" a. Para realizar las rotaciones se deben
considerar dos casos posibles (más los casos simétricos).
El primer caso es una inserción zig-zag, en donde k es un hijo derecho y p es un hijo izquierdo (o
viceversa). En este caso, se realiza una rotación doble estilo AVL (ver figura superior).
El otro caso es una inseción zig-zig, en donde k y p son ambos hijos izquierdo o derecho. En este caso, se
realiza la transformación indicada en la figura anterior.
El efecto del splaying es no sólo de mover el nodo accesado a la raíz, sino que sube todos los nodos del
camino desde la raíz hasta el nodo accesado aproximadamente a la mitad de su profundidad anterior, a
costa que algunos pocos nodos bajen a lo más dos niveles en el árbol.
El siguiente ejemplo muestra como queda el splay tree luego de accesar al nodo d.
El primer paso es un zig-zag entre los nodos d, b y f.
El último paso es un zig-zig entre los nodos d, h y j.
Para borrar un elemento de un splay tree se puede proceder de la siguiente forma: se realiza una
búsqueda del nodo a eliminar, lo cual lo deja en la raíz del árbol. Si ésta es eliminada, se obtienen dos
subárboles Si q y Sder. Se busca el elemento mayor en Si q, con lo cual dicho elemento pasa a ser su
nueva raíz, y como era el elemento mayor Si q ya no tiene hijo derecho, por lo que se cuelga Sder como
subárbol derecho de Si q, con lo que termina la operación de eliminación.
El análisis de los splay trees es complejo, porque debe considerar la estructura cambiante del árbol en
cada acceso realizado. Por otra parte, los splay trees son más fáciles de implementar que un AVL dado
que no hay que verificar una condición de balance.
Suponga que desea almacenar n números enteros, sabiendo de antemano que dichos números se
encuentran en un rango conocido 0, ..., k-1. Para resolver este problema, basta con crear un arreglo de
valores booleanos de tamaño k y marcar con valor true los casilleros del arreglo cuyo índice sea igual al
valor de los elementos a almacenar. Es fácil ver que con esta estructura de datos el costo de búsqueda,
inserción y eliminación es O(1).
Este enfoque tiene dos grandes problemas:
El valor de k puede ser muy grande, y por lo tanto no habría cupo en memoria para almacenar el
arreglo. Piense, por ejemplo, en todos los posibles nombres de personas.
Los datos a almacenar pueden ser pocos, con lo cual se estaría desperdiciando espacio de
Una manera de resolver estos problemas es usando una función h, denominada función de hash, que
transorme un elemento X, perteneciente al universo de elementos posibles, en un valor h(X) en el rango [0,
..., m-1], con m << k. En este caso, se marca el casillero cuyo índice es h(X) para indicar indicar que el
elemento X pertenece al conjunto de elementos. Esta estructura de datos es conocida como tabla de
La función h debe ser de tipo pseudoaleatorio para distribuir las llaves uniformemente dentro de la tabla,
es decir, Pr( h(X) = z) = 1/m para todo z en [0, ..., m-1]. La llave X se puede interpretar como un número
entero, y las funciones h(X) típicas son de la forma:
donde c es una constante, p es un número primo y m es el tamaño de la tabla de hashing. Distintos valores
para estos parámetros producen distintas funciones de hash.
Problema de este nuevo enfoque: colisiones.
La paradoja de los cumpleaños
Cuál es el número n mínimo de personas que es necesario reunir en una sala para que la probabilidad
que dos de ella tengan su cumpleaños en el mismo día sea mayor que 1/2?
Sea dn la probabilidad que no haya coincidencia en dos fechas de cumpleaños. Se tiene que:
Cuál es el mínimo n tal que dn < 1/2?
Respuesta: n = 23 => dn = 0.4927. Note que 23 es una "pequeña" fracción de 365.
Esto quiere decir que con una pequeña fracción del conjunto de elementos es posible tener colisiones con
alta probabilidad.
Para resolver el problema de las colisiones, existen dos grandes familias de métodos:
Encadenamiento (usar estructuras dinámicas).
Direccionamiento abierto (intentar con otra función de hash).
La idea de este método es que todos los elementos que caen en el mismo casillero se enlacen en una
lista, en la cual se realiza una búsqueda secuencial.
Se define para un conjunto con n elementos:
Cn: costo esperado de búsqueda exitosa.
C'n: costo esperado de búsqueda infructuosa.
: factor de carga de la tabla.
Esto implica que el costo esperado de búsqueda sólo depende del factor de carga
la tabla.
, y no del tamaño de
Hashing con listas mezcladas
En este caso no se usa área de rebalse, sino que los elementos se almacenan en cualquier lugar libre del
área primaria.
Ejemplo: h(X)= X mod 10
Los costos esperados de búsqueda son:
Eliminación en tablas de hashing con encadenamiento
Con listas separadas el algoritmo es simple, basta con eliminar el elemento de la lista enlazada
correspondiente. En el caso de las lista mezcladas, el algoritmo es más complejo (ejercicio).
Direccionamiento abierto
En general, esto puede ser visto como una sucesión de funciones de hash {h0(X), h1(X), ...}. Primero se
intenta con tabla[h0(X)], si el casillero está ocupado se prueba con tabla[h1(X)], y así sucesivamente.
Linear probing
Es el método más simple de direccionamiento abierto, en donde las funciones de hash se definen como:
Costo esperado de búsqueda:
Para una tabla llena:
Cuando la tabla de hashing está muy llena, este método resulta ser muy lento.
A medida que la tabla se va llenando, se observa que empiezan a aparecer clusters de casilleros
ocupados consecutivos:
Si la función de hash distribuye los elementos uniformemente dentro de la tabla, la probabilidad que un
cluster crezca es proporcional a su tamaño. Esto implica que una mala situación se vuelve peor cada vez
con mayor probabilidad. Sin embargo, este no es todo el problema, puesto que lo mismo sucede en
hashing con encadenamiento y no es tan malo. El verdadero problema ocurre cuando 2 clusters están
separados solo por un casillero libre y ese casillero es ocupado por algún elemento: ambos clusters se
unen en uno mucho más grande.
Otro problema que surge con linear probing es conocido como clustering secundario: si al realizar la
búsqueda de dos elementos en la tabla se encuentran con el mismo casillero ocupado, entonces toda la
búsqueda subsiguiente es la misma para ambos elementos.
Eliminación de elementos: no se puede eliminar un elemento y simplemente dejar su casillero vacío,
puesto que las búsquedas terminarían en dicho casillero. Existen dos maneras para eliminar elementos de
la tabla:
Marcar el casillero como "eliminado", pero sin liberar el espacio. Esto produce que las búsquedas
puedan ser lentas incluso si el factor de carga de la tabla es pequeño.
Eliminar el elemento, liberar el casillero y mover elementos dentro de la tabla hasta que un casillero
"verdaderamente" libre sea encontrado. Implementar esta operación es complejo y costoso.
Hashing doble
En esta estrategia se usan dos funciones de hash: una función
inicial, y una función
conocida como paso. Por lo tanto:
conocida como dirección
Elegir m primo asegura que se va a visitar toda la tabla antes que se empiecen a repetir los casilleros.
Nota: solo basta que m y s(X) sean primos relativos (ejercicio: demostralo por contradicción).
El análisis de eficiencia de esta estrategia es muy complicado, y se estudian modelos idealizados:
muestreo sin reemplazo (uniform probing) y muestreo con reemplazo (random probing), de los cuales se
obtiene que los costos de búsqueda esperado son:
Para una tabla llena:
Si bien las secuencias de casilleros obtenidas con hashing doble no son aleatorias, en la práctica su
rendimiento es parecido a los valores obtenidos con los muestreos con y sin reemplazo.
Existen heurísticas para resolver el problema de las colisiones en hashing con direccionamiento abierto,
como por ejemplo last-come-first-served hashing (el elemento que se mueve de casillero no es el que se
inserta sino el que ya lo ocupaba) y Robin Hood hashing (el elemento que se queda en el casillero es
aquel que se encuentre más lejos de su posición original), que si bien mantienen el promedio de búsqueda
con respecto al método original (first-come-first-served) disminuyen dramáticamente su varianza.
Hashing en memoria secundaria
Cuando se almacena información en memoria secundaria (disco), la función de costo pasa a ser el
número de accesos a disco. En hashing para memoria secundaria, la función de hash sirve para escoger
un bloque (página) del disco, en donde cada bloque contiene b elementos. El factor de carga pasa a ser
. Por ejemplo, utilizando hashing encadenado:
Este método es eficiente para un factor de carga pequeño, ya que con factor de carga alto la búsqueda
toma tiempo O(n). Para resolver esto puede ser necesario incrementar el tamaño de la tabla, y así reducir
el factor de carga. En general esto implica reconstruir toda la tabla, pero existe un método que permite
hacer crecer la tabla paulatinamente en el tiempo denominado hashing extendible.
Hashing extendible
Suponga que las páginas de disco son de tamaño b y una función de hash h(X)>=0 (sin límite superior).
Sea la descomposición en binario de la función de hash h(X)=(... b2(X) b1(X) b0(X))2.
Inicialmente, todas las llaves se encuentran en una única página. Cuando dicha página se rebalsa se
divide en dos, usando b0(X) para discriminar entre ambas páginas:
Cada vez que una página rebalsa, se usa el siguiente bit en la sequencia para dividirla en dos. Ejemplo:
El índice (directorio) puede ser almacenado en un árbol, pero el hashing extensible utiliza una idea
diferente. El árbol es extendido de manera que todos los caminos tengan el mismo largo:
A continuación, el árbol es implementado como un arreglo de referencias:
Cuando se inserta un elemento y existe un rebalse, si cae en la página (D,E) esta se divide y las
referencias de los casilleros 2 y 3 apuntan a las nuevas páginas creadas. Si la página (B,C) es la que se
divide, entonces el árbol crece un nivel, lo cual implica duplicar el tamaño del directorio. Sin embargo, esto
no sucede muy a menudo.
El tamaño esperado del directorio es ligeramente superlinear:
Compresi n de datos
En esta sección veremos la aplicación de la teoría de árboles a la compresión de datos. Por compresión de
datos entendemos cualquier algoritmo que reciba una cadena de datos de entrada y que sea capaz de generar
una cadena de datos de salida cuya representación ocupa menos espacio de almacenamiento, y que permite mediante un algoritmo de descompresión- recuperar total o parcialmente el mensaje recibido inicialmente. A
nosotros nos interesa particularmente los algoritmos de compresión sin p rdida, es decir, aquellos algoritmos
que permiten recuperar completamente la cadena de datos inicial.
Codificaci n de mensajes
Supongamos que estamos codificando mensajes en binario con un alfabeto de tamaño
bits por símbolo, si todos los códigos son de la misma longitud.
. Para esto se necesitan
Ejemplo: para el alfabeto A,
,Z de 26 letras se necesitan códigos de
Problema: Es posible disminuir el número promedio de bits por símbolo?
Soluci n: Asignar códigos más cortos a los símbolos más frecuentes.
Un ejemplo claro de aplicación de este principio es el código morse:
Se puede representar mediante un arbol binario:
Podemos ver en el árbol que letras de mayor probabilidad de aparición (en idioma inglés) están más cerca de la
raíz, y por lo tanto tienen una codificación más corta que letras de baja frecuencia.
Problema: este código no es auto-delimitante
Por ejemplo, SOS y IAMS tienen la misma codificación
Para eliminar estas ambigüedades, en morse se usa un tercer delimitador (espacio) para separar el código de
cada letra. Se debe tener en cuenta que este problema se produce sólo cuando el código es de largo variable
(como en morse), pues en otros códigos de largo fijo (por ejemplo el código ASCII, donde cada caracter se
representa por 8 bits) es directo determinar cuales elementos componen cada caracter.
La condición que debe cumplir una codificación para no presentar ambigüedades, es que la codificación de
ningun caracter sea prefijo de otra. Esto nos lleva a definir árboles que sólo tienen información en las hojas,
como por ejemplo:
Como nuestro objetivo es obtener la secuencia codificada más corta posible, entonces tenemos que encontrar la
codificación que en promedio use el menor largo promedio del código de cada letra.
Problema: Dado un alfabeto
tal que la probabilidad de que la letra
aparezca en un mensaje es
, encontrar un código libre de prefijos que minimice el largo promedio del código de una letra.
Supongamos que a la letra
se le asigna una codificación de largo
, entonces el largo esperado es:
es decir, el promedio ponderado de todas las letras por su probabilidad de aparición.
probabilidad código
Entropía de Shannon
Shannon define la entropía del alfabeto como:
El teorema de Shannon dice que el número promedio de bits esperable para un conjunto de letras y
probabilidades dadas se aproxima a la entropía del alfabeto. Podemos comprobar esto en nuestro ejemplo
anterior donde la entropia de Shannon es:
que es bastante cercano al costo esperado de 2.38 que calculamos anteriormente.
A continuación describiremos algoritmos que nos permitan encontrar representaciones que minimicen el costo
Algoritmo de Huffman
El algoritmo de Huffman permite construir un código libre de prefijos de costo esperado mínimo.
Inicialmente, comenzamos con hojas desconectadas, cada una rotulada con una letra del alfabeto y con una
probabilidad (ponderacion o peso).
Consideremos este conjunto de hojas como un bosque. El algoritmo es:
while(nro de árboles del bosque > 1){
- Encontrar los 2 árboles de peso mínimo y
unirlos con una nueva raíz que se crea para esto.
- Arbitrariamente, rotulamos las dos
líneas como 0 y 1
- Darle a la nueva raíz un peso que es
la suma de los pesos de sus subárboles.
Si tenemos que las probabilidades de las letras en un mensaje son:
Entonces la construcción del árbol de Huffman es (los números en negrita indican los árboles con menor peso):
Se puede ver que el costo esperado es de 2,53 bits por letra, mientras que una codificación de largo fijo (igual
número de bits para cada símbolo) entrega un costo de 3 bits/letra.
El algoritmo de codificación de Huffman se basa en dos supuestos que le restan eficiencia:
1. supone que los caracteres son generados por una fuente aleatoria independiente, lo que en la práctica no
es cierto. Por ejemplo, la probabilidad de encontrar una vocal después de una consonante es mucho
mayor que la de encontrarla después de una vocal; después de una q es muy probable encontrar una u,
2. Debido a que la codificación se hace caracter a caracter, se pierde eficiencia al no considerar las
secuencias de caracteres más probables que otras.
Lempel Ziv
Una codificación que toma en cuenta los problemas de los supuestos enunciados anteriormente para la
codificación de Huffman sería una donde no solo se consideraran caracteres uno a uno, sino que donde además
se consideraran aquellas secuencias de alta probabilidad en el texto. Por ejemplo, en el texto:
Obtendríamos un mayor grado de eficiencia si además de considerar caracteres como a y b, también
considerásemos la secuencia aa al momento de codificar.
Una generalización de esta idea es el algoritmo de Lempel-Ziv. Este algoritmo consiste en separar la secuencia
de caracteres de entrada en bloques o secuencias de caracteres de distintos largos, manteniendo una diccionario
de bloques ya vistos. Aplicando el algoritmo de Huffman para estos bloques y sus probabilidades, se puede
sacar provecho de las secuencias que se repitan con más probabilidad en el texto. El algoritmo de codificación
es el siguiente:
1.- Inicializar el diccionario con todos
los bloques de largo 1
2.- Seleccionar el prefijo más largo del
mensaje que calce con alguna secuencia W
del diccionario y eliminar W del mensaje
3.- Codificar W con su índice en el diccionario
4.- Agregar W seguido del primer símbolo del
próximo bloque al diccionario.
5.- Repetir desde el paso 2.
Si el mensaje es
la codificación y los bloques agregados al diccionario serían (donde los bloques reconocidos son mostrados
entre paréntesis y la secuencia agregada al diccionario en cada etapa es mostrada como un subíndice):
Teóricamente, el diccionario puede crecer indefinidamente, pero en la práctica se opta por tener un diccionario
de tamaño limitado. Cuando se llega al límite del diccionario, no se agregan más bloques.
Lempel-Ziv es una de las alternativas a Huffman. Existen varias otras derivadas de estas dos primeras, como
LZW (Lempel-Ziv-Welch), que es usado en programas de compresión como el compress de UNIX.
Ordenaci n
Cota inferior
Mergesort y Ordenamiento Externo
El problema de ordenar un conjunto de datos (por ejemplo, en orden ascendente) tiene gran
importancia tanto teórica como práctica. En esta sección veremos principalmente algoritmos que
ordenan mediante comparaciones entre llaves, para los cuales se puede demostrar una cota
inferior que coincide con la cota superior provista por varios algoritmos. También veremos un
algoritmo de otro tipo, que al no hacer comparaciones, no está sujeto a esa cota inferior.
Cota inferior
Supongamos que deseamos ordenar tres datos A, B y C. La siguiente figura muestra un árbol de
decisión posible para resolver este problema. Los nodos internos del árbol representan
comparaciones y los nodos externos representan salidas emitidas por el programa.
Como se vio en el capítulo de búsqueda, todo árbol de decisión con Hhojas tiene al menos altura
log2 H, y la altura del árbol de decisión es igual al número de comparaciones que se efectúan en
el peor caso.
En un árbol de decisión para ordenar ndatos se tiene que H=n!, y por lo tanto se tiene que todo
algoritmo que ordene ndatos mediante comparaciones entre llaves debe hacer al menos log2 n!
comparaciones en el peor caso.
Usando la aproximación de Stirling, se puede demostrar que log2 n! = n log2 n + O(n), por lo
cual la cota inferior es de O(n log n).
Si suponemos que todas las posibles permutaciones resultantes son equiprobables, es posible
demostrar que el número promedio de comparaciones que cualquier algoritmo debe hacer es
también de O(n log n).
Este método fue inventado por C.A.R. Hoare a comienzos de los '60s, y sigue siendo el método
más eficiente para uso general.
Quicksort es un ejemplo clásico de la aplicación del principio de dividir para reinar. Su estructura
es la siguiente:
Primero se elige un elemento al azar, que se denomina el pivote.
El arreglo a ordenar se reordena dejando a la izquierda a los elementos menores que el
pivote, el pivote al medio, y a la derecha los elementos mayores que el pivote:
Luego cada sub-arreglo se ordena recursivamente.
La recursividad termina, en principio, cuando se llega a sub-arreglos de tamaño cero o uno, los
cuales trivialmente ya están ordenados. En la práctica veremos que es preferible detener la
recursividad antes de eso, para no desperdiciar tiempo ordenando recursivamente arreglos
pequeños, los cuales pueden ordenarse más eficientemente usando Ordenación por Inserción,
por ejemplo.
Costo promedio
Si suponemos, como una primera aproximación, que el pivote siempre resulta ser la mediana del
conjunto, entonces el costo de ordenar está dado (aproximadamente) por la ecuación de
T(n) = n + 2 T(n/2)
Esto tiene solución T(n) = n log2 ny es, en realidad, el mejor caso de Quicksort.
Para analizar el tiempo promedio que demora la ordenación mediante Quicksort, observemos
que el funcionamiento de Quicksort puede graficarse mediante un árbol de partición:
Por la forma en que se construye, es fácil ver que el árbol de partición es un árbol de b squeda
binaria, y como el pivote es escogido al azar, entonces la raíz de cada subárbol puede ser
cualquiera de los elementos del conjunto en forma equiprobable. En consecuencia, los árboles de
partición y los árboles de búsqueda binaria tienen exactamente la misma distribución.
En el proceso de partición, cada elemento de los subárboles ha sido comparado contra la raíz (el
pivote). Al terminar el proceso, cada elemento ha sido comparado contra todos sus ancestros. Si
sumamos todas estas comparaciones, el resultado total es igual al largo de caminos internos.
Usando todas estas correspondencias, tenemos que, usando los resultados ya conocidos para
árboles, el número promedio de comparaciones que realiza Quicksort es de:
1.38 n log2 n + O(n)
Por lo tanto, Quicksort es del mismo orden que la cota inferior (en el caso esperado).
Peor caso
El peor caso de Quicksort se produce cuando el pivote resulta ser siempre el mínimo o el máximo
del conjunto. En este caso la ecuación de recurrencia es
T(n) = n - 1 + T(n-1)
lo que tiene solución T(n) = O(n2). Desde el punto de vista del árbol de partición, esto
corresponde a un árbol en "zig-zag".
Si bien este peor caso es extremadamente improbable si el pivote se escoge al azar, algunas
implementaciones de Quicksort toman como pivote al primer elemento del arreglo (suponiendo
que, al venir el arreglo al azar, entonces el primer elemento es tan aleatorio como cualquier otro).
El problema es que si el conjunto viene en realidad ordenado, entonces caemos justo en el peor
caso cuadrático.
Lo anterior refuerza la importancia de que el pivote se escoja al azar. Esto no aumenta
significativamente el costo total, porque el número total de elecciones de pivote es O(n).
Mejoras a Quicksort
Quicksort puede ser optimizado de varias maneras, pero hay que ser muy cuidadoso con estas
mejoras, porque es fácil que terminen empeorando el desempeño del algoritmo.
En primer lugar, es desaconsejable hacer cosas que aumenten la cantidad de trabajo que se
hace dentro del "loop" de partición, porque este es el lugar en donde se concentra el costo O(n
log n).
Algunas de las mejoras que han dado buen resultado son las siguientes:
Quicksort con "mediana de 3"
En esta variante, el pivote no se escoge como un elemento tomado al azar, sino que primero se
extrae una muestra de 3 elementos, y entre ellos se escoge a la mediana de esa muestra como
Si la muestra se escoge tomando al primer elemento del arreglo, al del medio y al último,
entonces lo que era el peor caso (arreglo ordenado) se transforma de inmediato en mejor caso.
De todas formas, es aconsejable que la muestra se escoja al azar, y en ese caso el análisis
muestra que el costo esperado para ordenar nelementos es
(12/7) n ln n = 1.19 n log2 n
Esta reducción en el costo se debe a que el pivote es ahora una mejor aproximación a la
mediana. De hecho, si en lugar de escoger una muestra de tamaño 3, lo hiciéramos con tamaños
como 7, 9, etc., se lograría una reducción aún mayor, acercándonos cada vez más al óptimo, pero
con rendimientos rápidamente decrecientes.
Uso de Ordenaci n por Inserci n para ordenar sub-arreglos pequeños
Tal como se dijo antes, no es eficiente ordenar recursivamente sub-arreglos demasiado
En lugar de esto, se puede establecer un tamaño mínimo M, de modo que los sub-arreglos de
tamaño menor que esto se ordenan por inserción en lugar de por Quicksort.
Claramente debe haber un valor óptimo para M, porque si creciera indefinidamente se llegaría a
un algoritmo cuadrático. Esto se puede analizar, y el óptimo es cercano a 10.
Como método de implementación, al detectarse un sub-arreglo de tamaño menor que M, se lo
puede dejar simplemente sin ordenar, retornando de inmediato de la recursividad. Al final del
proceso, se tiene un arreglo cuyos pivotes están en orden creciente, y encierran entre ellos a
bloques de elementos desordenados, pero que ya están en el grupo correcto. Para completar la
ordenación, entonces, basta con hacer una sola gran pasada de Ordenación por Inserción, la cual
ahora no tiene costo O(n2), sino O(nM), porque ningún elemento esta a distancia mayor que Mde
su ubicación definitiva.
Ordenar recursivamente s lo el sub-arreglo más pequeño
Un problema potencial con Quicksort es la profundidad que puede llegar a tener el arreglo de
recursividad. En el peor caso, ésta puede llegar a ser O(n).
Para evitar esto, vemos primero cómo se puede programar Quicksort en forma no recursiva,
usando un stack. El esquema del algoritmo sería el siguiente (en seudo-Java):
void Quicksort(Object a[])
Pila S = new Pila();
S.apilar(1,N); // límites iniciales del arreglo
(i,j) = S.desapilar(); // sacar límites
if(j-i>0) // al menos dos elementos para ordenar
p = particionar(a,i,j); // pivote queda en a[p]
Con este enfoque se corre el riesgo de que la pila llegue a tener profundidad O(n). Para evitar
esto, podemos colocar en la pila sólo los límites del sub-arreglo más pequeño, dejando el más
grande para ordenarlo de inmediato, sin pasar por la pila:
void Quicksort(Object a[])
Pila S = new Pila();
S.apilar(1,N); // límites iniciales del arreglo
(i,j) = S.desapilar(); // sacar límites
while(j-i>0) // al menos dos elementos para ordenar
p = particionar(a,i,j); // pivote queda en a[p]
if(p-i>j-p) // mitad izquierda es mayor
Con este enfoque, cada intervalo apilado es a lo más de la mitad del tamaño del arreglo, de
modo que si llamamos S(n)a la profundidad de la pila, tenemos:
S(n) <= 1 + S(n/2)
lo cual tiene solución log2 n, de modo que la profundida de la pila nunca es más que logarítmica.
Un algoritmo de selecci n basado en Quicksort
Es posible modificar el algoritmo de Quicksort para seleccionar el k-ésimo elemento de un
arreglo. Básicamente, la idea es ejecutar Quicksort, pero en lugar de ordenar las dos mitades,
hacerlo solo con aquella mitad en donde se encontraría el elemento buscado.
Suponemos que los elementos están en a[1],...,a[n] y que k está entre 1 y n. Cuando el
algoritmo termina, el k-ésimo elemento se encuentra en a[k]. El resultado es el siguiente
algoritmo, conocido como Quickselect, el cual se llama inicialmente como Quickselect(a,k,1,N).
void Quickselect(Object a[], int k, int i, int j)
if(j-i>0) // aún quedan al menos 2 elementos
p = particionar(a,i,j);
if(p==k) // bingo!
if(k<p) // seguimos buscando a la izquierda
Dado que en realidad se hace sólo una llamada recursiva y que ésta es del tipo "tail recursion",
es fácil transformar esto en un algoritmo iterativo (hacerlo como ejercicio).
El análisis de Quickselect es difícil, pero se puede demostrar que el costo esperado es O(n). Sin
embargo, el peor caso es O(n2).
A partir de cualquier implementación de una cola de prioridad es posible obtener un algoritmo de
ordenación. El esquema del algoritmo es:
Comenzar con una cola de prioridad vacía.
Fase de construcción de la cola de prioridad:
Traspasar todos los elementos del conjunto que se va a ordenar a la cola de prioridad,
mediante ninserciones.
Fase de ordenación:
Sucesivamente extraer el máximo n veces. Los elementos van apareciendo en orden
decreciente y se van almacenando en el conjunto de salida.
Si aplicamos esta idea a las dos implementaciones simples de colas de prioridad, utilizando lista
enlazada ordenada y lista enlazada desordenada, se obtienen los algoritmos de ordenación por
Inserción y por Selección, respectivamente. Ambos son algoritmos cuadráticos, pero es posible
que una mejor implementación lleve a un algoritmo más rápido. En el capítulo de Tipos de Datos
Abstractos se vió que una forma de obtener una implementación eficiente de colas de prioridad
es utilizando una estructura de datos llamada heap.
Implementaci n de Heapsort
Al aplicar heaps en la implementación de cola de prioridad para construir un algoritmo de
ordenación, se obtiene un algoritmo llamado Heapsort, para el cual resulta que tanto la fase de
construcción de la cola de prioridad, como la fase de ordenación, tienen ambas costo O(n log
n), de modo que el algoritmo completo tiene ese mismo costo.
Por lo tanto, Heapsort tiene un orden de magnitud que coincide con la cota inferior, esto es, es
óptimo incluso en el peor caso. Nótese que esto no era así para Quicksort, el cual era óptimo en
promedio, pero no en el peor caso.
De acuerdo a la descripción de esta familia de algoritmos, daría la impresión de que en la fase
de construcción del heap se requeriría un arreglo aparte para el heap, distinto del arreglo de
entrada. De la misma manera, se requeriría un arreglo de salida aparte, distinto del heap, para
recibir los elementos a medida que van siendo extraídos en la fase de ordenación.
En la práctica, esto no es necesario y basta con un sólo arreglo: todas las operaciones pueden
efectuarse directamente sobre el arreglo de entrada.
En primer lugar, en cualquier momento de la ejecución del algoritmo, los elementos se encuentran
particionados entre aquellos que están ya o aún formando parte del heap, y aquellos que se
encuentran aún en el conjunto de entrada, o ya se encuentran en el conjunto de salida, según sea
la fase. Como ningún elemento puede estar en más de un conjunto a la vez, es claro que, en todo
momento, en total nunca se necesita más de n casilleros de memoria, si la implementación se
realiza bien.
En el caso de Heapsort, durante la fase de construcción del heap, podemos utilizar las celdas de
la izquierda del arreglo para ir "armando" el heap. Las celdas necesarias para ello se las vamos
"quitando" al conjunto de entrada, el cual va perdiendo elementos a medida que se insertan en el
heap. Al concluir esta fase, todos los elementos han sido insertados, y el arreglo completo es un
solo gran heap.
En la fase de ordenación, se van extrayendo elementos del heap, con lo cual este se contrae de
tamaño y deja espacio libre al final, el cual puede ser justamente ocupado para ir almacenando
los elementos a medida que van saliendo del heap (recordemos que van apareciendo en orden
Optimizaci n de la fase de construcci n del heap
Como se ha señalado anteriormente, tanto la fase de construcción del heap como la de
ordenación demoran tiempo O(n log n). Esto es el mínimo posible (en orden de magnitud), de
modo que no es posible mejorarlo significativamente.
Sin embargo, es posible modificar la implementación de la fase de construcción del heap para
que sea mucho más eficiente.
La idea es invertir el orden de las "mitades" del arreglo, haciendo que el "input" esté a la
izquierda y el "heap" a la derecha.
En realidad, si el "heap" está a la derecha, entonces no es realmente un heap, porque no es un
árbol completo (le falta la parte superior), pero sólo nos interesa que en ese sector del arreglo se
cumplan las relaciones de orden entre a[k]y {a[2*k],a[2*k+1]}. En cada iteración, se toma el
último elemento del "input" y se le "hunde" dentro del heap de acuerdo a su nivel de prioridad.
Al concluir, se llega igualmente a un heap completo, pero el proceso es significativamente más
La razón es que, al ser "hundido", un elemento paga un costo proporcional a su distancia al fondo
del árbol. Dada las características de un árbol, la gran mayoría de los elementos están al fondo o
muy cerca de él, por lo cual pagan un costo muy bajo. En un análisis aproximado, la mitad de los
elementos pagan 0 (ya están al fondo), la cuarta parte paga 1, la octava parte paga 2, etc.
Sumando todo esto, tenemos que el costo total está acotado por
lo cual es igual a n.
Los métodos anteriores operan mediante comparaciones de llaves, y están sujetos, por lo tanto, a
la cota inferior O(n log n). Veremos a continuación un método que opera de una manera distinta,
y logra ordenar el conjunto en tiempo lineal.
Supongamos que queremos ordenar n números, cada uno de ellos compuesto de k dígitos
decimales. El siguiente es un ejemplo con n=10, k=5.
Imaginando que estos dígitos forman parte de una matriz, podemos decir que a[i,j] es el jésimo del i-ésimo elemento del conjunto.
Es fácil, en una pasada, ordenar el conjunto si la llave de ordenación es un solo dígito, por
ejemplo el tercero de izquierda a derecha:
93 54
73 95
04 53
54 63
Llamemos ja la posición del dígito mediante el cual se ordena. La ordenación se puede hacer
utilizando una cola de entrada, que contiene al conjunto a ordenar, y un arreglo de 10 colas de
salida, subindicadas de 0 a 9. Los elementos se van sacando de la cola de entrada y se van
encolando en la cola de salida Q[dj], donde dj es el j-ésimo dígito del elemento que se está
Al terminar este proceso, los elementos están separados por dígito. Para completar la
ordenación, basta concatenar las kcolas de salida y formar nuevamente una sola cola con todos
los elementos.
Este proceso se hace en una pasada sobre los datos, y toma tiempo O(n).
Para ordenar el conjunto por las llaves completas, repetimos el proceso dígito por dígito, en cada
pasada separando los elementos según el valor del dígito respectivo, luego recolectándolos para
formar una sola cola, y realimentando el proceso con esos mismos datos. El conjunto completo
queda finalmente ordenado si los dígitos se van tomando de derecha a izquierda ( esto no es
Como hay que realizar kpasadas y cada una de ellas toma tiempo O(n), el tiempo total es O(k
n), que es el tamaño del archivo de entrada (en bytes). Por lo tanto, la ordenación toma tiempo
lineal en el tamaño de los datos.
El proceso anterior se puede generalizar para cualquier alfabeto, no sólo dígitos (por ejemplo,
ASCII). Esto aumenta el número de colas de salida, pero no cambia sustancialmente el tiempo
que demora el programa.
Archivos con records de largo variable
Si las líneas a ordenar no son todas del mismo largo, es posible alargarlas hasta completar el
largo máximo, con lo cual el algoritmo anterior es aplicable. Pero si hay algunas pocas líneas
desproporcionadamente largas y otras muy cortas, se puede perder mucha eficiencia.
Es posible, aunque no lo vamos a ver aquí, generalizar este algoritmo para ordenar líneas de
largo variable sin necesidad de alargarlas. El resultado es que la ordenación se realiza en tiempo
proporcional al tamaño del archivo.
Mergesort y Ordenamiento Externo
Si tenemos dos archivos que ya están ordenados, podemos mezclarlos para formar un solo
archivo ordenado en tiempo proporcional a la suma de los tamaños de los dos archivos.
Esto se hace leyendo el primer elemento de cada archivo, copiando hacia la salida al menor de
los dos, y avanzando al siguiente elemento en el archivo respectivo. Cuando uno de los dos
archivos se termina, todos los elementos restantes del otro se copian hacia la salida. Este
proceso se denomina "mezcla", o bien "merge", por su nombre en inglés.
Como cada elemento se copia sólo una vez, y con cada comparación se copia algún elemento,
es evidente que el costo de mezclar los dos archivos es lineal.
Si bien es posible realizar el proceso de mezcla de dos arreglos contiguos in situ, el algoritmo es
muy complicado y no resulta práctico. Por esta razón, el proceso se implementa generalmente
copiando de un archivo a otro.
Usando esta idea en forma reiterada, es posible ordenar un conjunto. Una forma de ver esto es
recursivamente, usando "dividir para reinar". El siguiente seudo-código ilustra esta idea:
mergesort(S) # retorna el conjunto S ordenado
if(S es vacío o tiene sólo 1 elemento)
Dividir S en dos mitades A y B;
El tiempo total está dado aproximadamente por la ecuación de recurrencia
T(n) = 2 T(n/2) + n
la cual tiene solución O(n log n), de modo que el algoritmo resulta ser óptimo.
Esto mismo se puede implementar en forma no recursiva, agrupando los elementos de a dos y
mezclándolos para formar pares ordenados. Luego mezclamos pares para formar cuádruplas
ordenadas, y así sucesivamente hasta mezclar las últimas dos mitades y formar el conjunto
completo ordenado. Como cada "ronda" tiene costo lineal y se realizan log n rondas, el costo
total es O(n log n).
La idea de Mergesort es la base de la mayoría de los métodos de ordenamiento externo, esto es,
métodos que ordenan conjuntos almacenados en archivos muy grandes, en donde no es posible
copiar todo el contenido del archivo a memoria para aplicar alguno de los métodos estudiados
En las implementaciones prácticas de estos métodos, se utiliza el enfoque no recursivo,
optimizado usando las siguientes ideas:
No se comienza con elementos individuales para formar pares ordenados, sino que se
generan archivos ordenados lo más grandes posibles. Para esto, el archivo de entrada se
va leyendo por trozos a memoria y se ordena mediante Quicksort, por ejemplo.
En lugar de mezclar sólo dos archivos se hace una mezcla múltiple (con k archivos de
entrada. Como en cada iteración hay k candidatos a ser el siguiente elemento en salir, y
siempre hay que extrar al mínimo de ellos y sustituirlo en la lista de candidatos por su
sucesor, la estructura de datos apropiada para ello es un heap.
En caso que no baste con una pasada de mezcla múltiple para ordenar todo el archivo, el
proceso se repite las veces que sea necesario.
Al igual que en los casos anteriores, el costo total es O(n log n).
B squeda en texto
1. Algoritmo de fuerza bruta.
2. Algoritmo Knuth-Morris-Pratt (KMP).
3. Algoritmo Boyer-Moore.
Boyer-Moore-Horspool (BMH).
Boyer-Moore-Sunday (BMS).
La búsqueda de patrones en un texto es un problema muy importante en la práctica. Sus
aplicaciones en computación son variadas, como por ejemplo la búsqueda de una palabra en un
archivo de texto o problemas relacionados con biología computacional, en donde se requiere
buscar patrones dentro de una secuencia de ADN, la cual puede ser modelada como una
secuencia de caracteres (el problema es más complejo que lo descrito, puesto que se requiere
buscar patrones en donde ocurren alteraciones con cierta probabilidad, esto es, la búsqueda no
es exacta).
En este capítulo se considerará el problema de buscar la ocurrencia de un patrón dentro de un
texto. Se utilizarán las siguientes convenciones:
n denotará el largo del texto en donde se buscará el patrón, es decir, texto = a1 a2 ... a .
m denotará el largo del patrón a buscar, es decir, patr n = b1 b2 ... b .
Por ejemplo:
Texto = "analisis de algoritmos".
Patrón = "algo".
Algoritmo de fuerza bruta
Se alinea la primera posición del patrón con la primera posición del texto, y se comparan los
caracteres uno a uno hasta que se acabe el patrón, esto es, se encontró una ocurrencia del patrón
en el texto, o hasta que se encuentre una discrepancia.
Si se detiene la búsqueda por una discrepancia, se desliza el patrón en una posición hacia la
derecha y se intenta calzar el patrón nuevamente.
En el peor caso este algoritmo realiza
comparaciones de caracteres.
Algoritmo Knuth-Morris-Pratt (KMP)
Suponga que se está comparando el patrón y el texto en una posición dada, cuando se encuentra
una discrepancia.
Sea X la parte del patrón que calza con el texto, e Y la correspondiente parte del texto, y suponga
que el largo de X es j. El algoritmo de fuerza bruta mueve el patrón una posición hacia la derecha,
sin embargo, esto puede o no puede ser lo correcto en el sentido que los primeros j-1 caracteres
de X pueden o no pueden calzar los últimos j-1 caracteres de Y.
La observación clave que realiza el algoritmo Knuth-Morris-Pratt (en adelante KMP) es que X es
igual a Y, por lo que la pregunta planteada en el párrafo anterior puede ser respondida mirando
solamente el patrón de búsqueda, lo cual permite precalcular la respuesta y almacenarla en una
Por lo tanto, si deslizar el patrón en una posición no funciona, se puede intentar deslizarlo en 2, 3,
..., hasta j posiciones.
Se define la funci n de fracaso (failure function) del patrón como:
Intuitivamente, f(j) es el largo del mayor prefijo de X que además es sufijo de X. Note que j = 1 es
un caso especial, puesto que si hay una discrepancia en b1 el patrón se desliza en una posición.
Si se detecta una discrepancia entre el patrón y el texto cuando se trata de calzar bj+1, se desliza
el patrón de manera que bf(j) se encuentre donde bj se encontraba, y se intenta calzar
Suponiendo que se tiene f(j) precalculado, la implementación del algoritmo KMP es la siguiente:
// n = largo del texto
// m = largo del patron
// Los indices comienzan desde 1
int k=0;
int j=0;
while (k<n && j<m)
while (j>0 && texto[k+1]!=patron[j+1])
if (texto[k+1])==patron[j+1]))
// j==m => calce, j el patron estaba en el texto
El tiempo de ejecución de este algoritmo no es difícil de analizar, pero es necesario ser
cuidadoso al hacerlo. Dado que se tienen dos ciclos anidados, se puede acotar el tiempo de
ejecución por el número de veces que se ejecuta el ciclo externo (menor o igual a n) por el número
de veces que se ejecuta el ciclo interno (menor o igual a m), por lo que la cota es igual a
que es igual a lo que demora el algoritmo de fuerza bruta!.
El análisis descrito es pesimista. Note que el número total de veces que el ciclo interior es
ejecutado es menor o igual al número de veces que se puede decrementar j, dado que f(j)<j. Pero
j comienza desde cero y es siempre mayor o igual que cero, por lo que dicho número es menor o
igual al número de veces que j es incrementado, el cual es menor que n. Por lo tanto, el tiempo
total de ejecución es
. Por otra parte, k nunca es decrementado, lo que implica que el
algoritmo nunca se devuelve en el texto.
Queda por resolver el problema de definir la función de fracaso, f(j). Esto se puede realizar
inductivamente. Para empezar, f(1)=0 por definición. Para calcular f(j+1) suponga que ya se
tienen almacenados los valores de f(1), f(2), ..., f(j). Se desea encontrar un i+1 tal que el (i+1)ésimo carácter del patrón sea igual al (j+1)-ésimo carácter del patrón.
Para esto se debe cumplir que i=f(j). Si bi+1=bj+1, entonces f(j+1)=i+1. En caso contrario, se
reemplaza i por f(i) y se verifica nuevamente la condición.
El algoritmo resultante es el siguiente (note que es similar al algoritmo KMP):
// m es largo del patron
// los indices comienzan desde 1
int[] f=new int[m];
int j=1;
int i;
while (j<m)
while (i>0 && patron[i+1]!=patron[j+1])
if (patron[i+1]==patron[j+1])
El tiempo de ejecución para calcular la función de fracaso puede ser acotado por los incrementos
y decrementos de la variable i, que es
Por lo tanto, el tiempo total de ejecución del algoritmo, incluyendo el preprocesamiento del patrón,
Algoritmo Boyer-Moore
Hasta el momento, los algoritmos de búsqueda en texto siempre comparan el patrón con el texto
de izquierda a derecha. Sin embargo, suponga que la comparación ahora se realiza de derecha
a izquierda: si hay una discrepancia en el último carácter del patrón y el carácter del texto no
aparece en todo el patrón, entonces éste se puede deslizar m posiciones sin realizar niguna
comparación extra. En particular, no fue necesario comparar los primeros m-1 caracteres del
texto, lo cual indica que podría realizarse una búsqueda en el texto con menos de n
comparaciones; sin embargo, si el carácter discrepante del texto se encuentra dentro del patrón,
éste podría desplazarse en un número menor de espacios.
El método descrito es la base del algoritmo Boyer-Moore, del cual se estudiarán dos variantes:
Horspool y Sunday.
Boyer-Moore-Horspool (BMH)
El algoritmo BMH compara el patrón con el texto de derecha a izquierda, y se detiene cuando se
encuentra una discrepancia con el texto. Cuando esto sucede, se desliza el patrón de manera que
la letra del texto que estaba alineada con b , denominada c, ahora se alinie con algún bj, con
j<m, si dicho calce es posible, o con b0, un carácter ficticio a la izquierda de b1, en caso contrario
(este es el mejor caso del algoritmo).
Para determinar el desplazamiento del patrón se define la funci n siguiente como:
0 si c no pertenece a los primeros m-1 caracteres del patrón (¿Por qué no se considera el
carácter b ?).
j si c pertenece al patrón, donde j<m corresponde al mayor índice tal que bj==c.
Esta función sólo depende del patrón y se puede precalcular antes de realizar la búsqueda.
El algoritmo de búsqueda es el siguiente:
// m es el largo del patron
// los indices comienzan desde 1
int k=m;
int j=m;
while(k<=n && j>=1)
if (texto[k-(m-j)]==patron[j])
// j==0 => calce!, j>=0 => no hubo calce.
Ejemplo de uso del algoritmo BMH:
Se puede demostrar que el tiempo promedio que toma el algoritmo BMH es:
donde c es el tamaño del alfabeto (c<<n). Para un alfabeto razonablemente grande, el algoritmo
En el peor caso, BMH tiene el mismo tiempo de ejecución que el algoritmo de fuerza bruta.
Boyer-Moore-Sunday (BMS)
El algoritmo BMH desliza el patrón basado en el símbolo del texto que corresponde a la posición
del último carácter del patrón. Este siempre se desliza al menos una posición si se encuentra una
discrepancia con el texto.
Es fácil ver que si se utiliza el carácter una posición más adelante en el texto como entrada de la
función siguiente el algoritmo también funciona, pero en este caso es necesario considerar el
patrón completo al momento de calcular los valores de la función siguiente. Esta variante del
algoritmo es conocida como Boyer-Moore-Sunday (BMS).
¿Es posible generalizar el argumento, es decir, se pueden utilizar caracteres más adelante en el
texto como entrada de la función siguiente? La respuesta es no, dado que en ese caso puede
ocurrir que se salte un calce en el texto.
1. Definiciones Básicas
2. Recorridos de Grafos
3. rbol Cobertor Mínimo
4. Distancias Mínimas en un Grafo Dirigido
Definiciones Básicas
Un grafo consiste de un conjunto V de vértices (o nodos) y un conjunto E de arcos que conectan a
esos vértices.
V = {v1,v2,v3,v4,v5}
E = { {v1,v2}, {v1,v3}, {v1,v5},
{v2,v3}, {v3,v4}, {v4,v5} }
V = {v1,v2,v3,v4}
E = { (v1,v2), (v2,v2), (v2,v3),
(v3,v1), (v3,v4), (v4,v3) }
Además de esto, los grafos pueden ser extendidos mediante la adición de rótulos (labels) a los
arcos. Estos rótulos pueden representar costos, longitudes, distancias, pesos, etc.
Representaciones de grafos en memoria
Matri de ad acencia
Un grafo se puede representar mediante una matriz A tal que A[i,j]=1 si hay un arco que
conecta vicon vj, y 0si no. La matriz de adyacencia de un grafo no dirigido es simétrica.
Una matriz de adyacencia permite determinar si dos vértices están conectados o no en tiempo
constante, pero requieren O(n2) bits de memoria. Esto puede ser demasiado para muchos
grafos que aparecen en aplicaciones reales, en donde |E|<<n2. Otro problema es que se
requiere tiempo O(n)para encontrar la lista de vecinos de un vértice dado.
Listas de ad acencia
Esta representación consiste en almacenar, para cada nodo, la lista de los nodos adyacentes a
él. Para el segundo ejemplo anterior,
v1: v2
v2: v2, v3
v3: v1, v4
v4: v3
Esto utiliza espacio O(|E|)y permite acceso eficiente a los vecinos, pero no hay acceso al azar
a los arcos.
Caminos, ciclos y árboles
Un camino es una secuencia de arcos en que el extremo final de cada arco coincide con el
extremo inicial del siguiente en la secuencia.
Un camino es simple si no se repiten vértices, excepto posiblemente el primero y el último.
Un ciclo es un camino simple y cerrado.
Un grafo es conexo si desde cualquier vértice existe un camino hasta cualquier otro vértice del
Se dice que un grafo no dirigido es un árbol si es conexo y acíclico.
Recorridos de Grafos
En muchas aplicaciones es necesario visitar todos los vértices del grafo a partir de un nodo dado.
Algunas aplicaciones son:
Encontrar ciclos
Encontrar componentes conexas
Encontrar árboles cobertores
Hay dos enfoque básicos:
Recorrido (o búsqueda) en profundidad (depth-first search):
La idea es alejarse lo más posible del nodo inicial (sin repetir nodos), luego devolverse un
paso e intentar lo mismo por otro camino.
Recorrido (o búsqueda) en amplitud (breadth-first search):
Se visita a todos los vecinos directos del nodo inicial, luego a los vecinos de los vecinos,
Recorrido en Profundidad (DFS)
A medida que recorremos el grafo, iremos numerando correlativamente los nodos encontrados
(1,2,...). Suponemos que todos estos números son cero inicialmente, y utilizamos un contador
global n, también inicializado en cero.
El siguiente algoritmo en seudo-código muestra cómo se puede hacer este tipo de recorrido
DFS(v) // recorre en profundidad a partir del vértice v
for(todo w tal que {v,w} está en E y DFN[w]==0)
Para hacer un recorrido en profundidad a partir del nodo v, utilizamos el siguiente programa
for(todo w)
Si hubiera más de una componente conexa, esto no llegaría a todos los nodos. Para esto
podemos hacer:
ncc=0; // n mero de componentes conexas
for(todo w)
while(existe v en V con DFN[v]==0)
Ejercicio: ¿Cómo utilizar este algoritmo para detectar si un grafo es acíclico?
También es posible implementar un recorrido no recursivo utilizando una pila:
Pila pila=new Pila();
for(todo w)
pila.apilar(v); // para recorrer a partir de v
if(DFN[v]==0) // primera vez que se visita este nodo
for(todo w tal que {v,w} esta en E)
Recorrido en amplitud (BFS)
La implementación es similar a la de DFS, pero se utiliza una cola en lugar de una pila.
El resultado es que los nodos se visitan en orden creciente en relación a su distancia al nodo
rboles cobertores
Dado un grafo G no dirigido, conexo, se dice que un subgrafo T de G es un árbol cobertor si es un
árbol y contiene el mismo conjunto de nodos que G.
Todo recorrido de un grafo conexo genera un árbol cobertor, consistente del conjunto de los arcos
utilizados para llegar por primera vez a cada nodo.
Para un grafo dado pueden existir muchos árboles cobertores. Si introducimos un concepto de
"peso" (o "costo") sobre los arcos, es interesante tratar de encontrar un árbol cobertor que tenga
costo mínimo.
rbol Cobertor Mínimo
En esta sección veremos dos algoritmos para encontrar un árbol cobertor mínimo para un grafo
no dirigido dado, conexo y con costos asociados a los arcos. El costo de un árbol es la suma de
los costos de sus arcos.
Algoritmo de Kruskal
Este es un algoritmo del tipo "avaro" ("greedy"). Comienza inicialmente con un grafo que contiene
sólo los nodos del grafo original, sin arcos. Luego, en cada iteración, se agrega al grafo el arco
más barato que no introduzca un ciclo. El proceso termina cuando el grafo está completamente
En general, la estrategia "avara" no garantiza que se encuentre un óptimo global, porque es un
método "miope", que sólo optimiza las decisiones de corto plazo. Por otra parte, a menudo este
tipo de métodos proveen buenas heurísticas, que se acercan al óptimo global.
En este caso, afortunadamente, se puede demostrar que el método "avaro" logra siempre
encontrar el óptimo global, por lo cual un árbol cobertor encontrado por esta vía está garantizado
que es un árbol cobertor mínimo.
Una forma de ver este algoritmo es diciendo que al principio cada nodo constituye su propia
componente conexa, aislado de todos los demás nodos. Durante el proceso de construcción del
árbol, se agrega un arco sólo si sus dos extremos se encuentran en componentes conexas
distintas, y luego de agregarlo esas dos componentes conexas se fusionan en una sola.
Para la operatoria con componentes conexas supondremos cada componente conexa se
identifica mediante un representante can nico (el "lider" del conjunto), y que se dispone de las
siguientes operaciones:
Union(a,b): Se fusionan las componentes
canónicas representadas
por a y b,
Find(x): Encuentra al representante canónico de la componente conexa a la cual pertenece x.
Con estas operaciones, el algoritmo de Kruskal se puede escribir así:
Ordenar los arcos de E en orden creciente de costo;
C = { {v} | v está en V }; // El conjunto de las componentes conexas
while( |C| > 1 )
Sea e={v,w} el siguiente arco en orden de costo creciente;
Agregar e al árbol;
Union(Find(v), Find(w));
El tiempo que demora este algoritmo está dominado por lo que demora la ordenación de los
arcos. Si |V|=ny |E|=m, el tiempo es O(m log m)más lo que demora realizar moperaciones
Findmás noperaciones Union.
Es posible implementar Union-Find de modo que las operaciones Union demoran tiempo
constante, y las operaciones Find un tiempo casi constante. Más precisamente, el costo
amortizado de un Find está acotado por log* n, donde log* nes una función definida como
el número de veces que es necesario tomar el logaritmo de un número para que el resultado sea
menor que 1.
Por lo tanto, el costo total es O(m log m)o, lo que es lo mismo, O(m log n)(¿por qué?).
La correctitud del algoritmo de Kruskal viene del siguiente lema:
Le a
Sea V'subconjunto propio de V, y sea e={v,w}un arco de costo mínimo tal que v
está en V'y westá en V-V'. Entonces existe un árbol cobertor mínimo que incluye a
Este lema permite muchas estrategias distintas para escoger los arcos del árbol. Veamos por
ejemplo la siguiente:
Algoritmo de Prim
Comenzamos con el arco más barato, y marcamos sus dos extremos como "alcanzables". Luego,
a cada paso, intentamos extender nuestro conjunto de nodos alcanzables agregando el arco más
barato que tenga uno de sus extremos dentro del conjunto alcanzable y el otro fuera de él.
De esta manera, el conjunto alcanzable se va extendiendo como una "mancha de aceite".
Sea e={v,w} un arco de costo mínimo en E;
Agregar e al árbol;
A={v,w}; // conjunto alcanzable
Encontrar el arco e={v,w} más barato con v en A y w en V-A;
Agregar e al árbol;
Agregar w al conjunto alcanzable A;
Para implementar este algoritmo eficientemente, podemos mantener una tabla donde, para cada
nodo de V-A, almacenamos el costo del arco más barato que lo conecta al conjunto A. Estos
costos pueden cambiar en cada iteración.
Si se organiza la tabla como una cola de prioridad, el tiempo total es O(m log n). Si se deja la
tabla desordenada y se busca linealmente en cada iteración, el costo es O(n2). Esto último es
mejor que lo anterior si el grafo es denso, pero no si está cerca de ser un grafo completo.
Distancias Mínimas en un Grafo Dirigido
En este problema los rótulos de los arcos se interpretan como distancias. La distancia (o largo)
de un camino es la suma de los largos de los arcos que lo componen.
El problema de encontrar los caminos más cortos tiene dos variantes:
Caminos más cortos desde un nodo "origen"
Encontrar los ncaminos más cortos desde un nodo dado shasta todos los nodos del grafo.
Todos los caminos más cortos
Encontrar los n2caminos más cortos entre todos los pares de nodos (origen, destino). Esto
se puede resolver resolviendo nveces el problema anterior, cambiando cada vez de nodo
origen, pero puede ser más eficiente encontrar todos los caminos de una sola vez.
Algoritmo de Dijkstra para los caminos más cortos desde un nodo "origen"
La idea del algoritmo es mantener un conjunto Ade nodos "alcanzables" desde el nodo origen e ir
extendiendo este conjunto en cada iteración.
Los nodos alcanzables son aquellos para los cuales ya se ha encontrado su camino óptimo
desde el nodo origen. Para esos nodos su distancia óptima al origen es conocida. Inicialmente
Para los nodos que no están en Ase puede conocer el camino óptimo desde sque pasa s lo
por nodos de . Esto es, caminos en que todos los nodos intermedios son nodos de A.
Llamemos a esto su camino óptimo tentativo.
En cada iteración, el algoritmo encuentra el nodo que no está en Ay cuyo camino óptimo tentativo
tiene largo mínimo. Este nodo se agrega a Ay su camino óptimo tentativo se convierte en su
camino óptimo. Luego se actualizan los caminos óptimos tentativos para los demás nodos.
El algoritmo es el siguiente:
D[v]=cost(s,v) para todo v en V-A; // infinito si el arco no existe
Encontrar v en V-A tal que D[v] es mínimo;
Agregar v a A;
for(todo w tal que (v,w) está en E)
Usando una cola de prioridad para la tabla Del tiempo es O(m log n).
Usando un arreglo con búsqueda secuencial del mínimo el tiempo es O(n2).
Ejem l :
Algoritmo de Floyd para todas las distancias más cortas
Para aplicar este algoritmo, los nodos se numeran arbitrariamente 1,2,...n. Al comenzar la
iteración k-ésima se supone que una matriz D[i,j]contiene la distancia mínima entre i y j
medida a través de caminos que pasen sólo por nodos intermedios de numeración <k.
Estas distancias se comparan con las que se obtendrían si se pasara una vez por el nodo k, y si
de esta manera se obtendría un camino más corto entonces se prefiere este nuevo camino, de lo
contrario nos quedamos con el nodo antiguo.
Al terminar esta iteración, las distancias calculadas ahora incluyen la posibilidad de pasar por
nodos intermedios de numeración <=k, con lo cual estamos listos para ir a la iteración siguiente.
Para inicializar la matriz de distancias, se utilizan las distancias obtenidas a través de un arco
directo entre los pares de nodos (o infinito si no existe tal arco). La distancia inicial entre un nodo
y sí mismo es cero.
D[i,j]=cost(i,j); // infinito si no hay arco entre i y j
D[i,j]=min(D[i,j], D[i,k]+D[k,j]);
El tiempo total que demora este algoritmo es O(n3).
Algoritmo de Warshall para cerradura transitiva
Dada la matriz de adyacencia de un grafo (con D[i,j]=1si hay un arco entre iy j, y 0si no),
resulta útil calcular la matriz de conectividad, en que el casillero respectivo contiene un 1si y sólo
si existe un camino (de largo >=0) entre i y j. Esta matriz se llama también la cerradura
transitiva de la matriz original.
La matriz de conectividad se puede construir de la siguiente manera:
1. Primero calcular la matriz de distancias mínimas usando Floyd.
2. Luego sustituir cada valor infinito por 0y cada valor no infinito por 1.
Mejor todavía, podríamos modificar el algoritmo de Floyd para que vaya calculando con ceros y
unos directamente, usando las correspondencias siguientes:
infini o <infini o
or 0 1
infini o infini o <infini o
0 01
<infini o <infini o <infini o
1 11
infini o <infini o
and 0 1
infini o infini o infini o
<infini o infini o <infini o
El resultado se denomina Algoritmo de Warshall:
D[i,j]=adyacente(i,j); // 1 si existe, 0 si no
D[i,j]=D[i,j] or (D[i,k] and D[k,j]);