-
Notifications
You must be signed in to change notification settings - Fork 0
/
oppenheim_discrete_time.tex
6185 lines (5712 loc) · 461 KB
/
oppenheim_discrete_time.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
\documentclass[a4paper]{report}
\usepackage[spanish]{babel}
\usepackage{graphicx}
\pagestyle{headings}
\titlepage
\usepackage[utf8]{inputenc} % para codificacion unicode (utf8)
\usepackage{enumerate}
\usepackage{hyperref} % para links a paginas web
\usepackage{subfig}
\usepackage{graphics}
\usepackage{amsmath}
\usepackage{amssymb}
\usepackage{amsthm}
\usepackage{placeins}
\usepackage{tabularx}
\usepackage{booktabs,siunitx}
\usepackage{calc}
\usepackage{bm}
\usepackage{fullpage}
\usepackage{mathdots}
\usepackage{multirow}
\usepackage{polynom}
% plot a circle
\usepackage{tikz}
\newcommand\TikCircle[1][3]{\tikz[baseline=-#1]{\draw[thick](0,0.05)circle[radius=#1mm];}}
\decimalpoint
% That follow is for listings configuration
\usepackage{listings}
\usepackage{color}
\usepackage{textcomp}
\definecolor{listinggray}{gray}{0.9}
\definecolor{lbcolor}{rgb}{0.99,0.99,0.99}
\lstset{
backgroundcolor=\color{lbcolor},
tabsize=4,
rulecolor=,
language=python,
basicstyle=\scriptsize,
upquote=true,
aboveskip={1.5\baselineskip},
columns=fixed,
showstringspaces=false,
extendedchars=true,
breaklines=true,
prebreak = \raisebox{0ex}[0ex][0ex]{\ensuremath{\hookleftarrow}},
frame=single,
showtabs=false,
showspaces=false,
showstringspaces=false,
identifierstyle=\ttfamily,
keywordstyle=\color[rgb]{0,0,1},
commentstyle=\color[rgb]{0.133,0.545,0.133},
stringstyle=\color[rgb]{0.627,0.126,0.941},
literate=%
{á}{{\'{a}}}1
{é}{{\'{e}}}1
{í}{{\'{i}}}1
{ó}{{\'{o}}}1
{ú}{{\'{u}}}1
{ñ}{{\~n}}1
}
\newcommand{\var}{\operatorname{var}}
\newcommand{\x}{\mathbf{x}}
\newcommand{\y}{\mathbf{y}}
\newcommand{\w}{\mathbf{w}}
\newcommand{\z}{\mathbf{z}}
\newcommand{\g}{\mathbf{g}}
\newcommand{\h}{\mathbf{h}}
\newcommand{\s}{\mathbf{s}}
\newcommand{\thetabf}{\bm{\theta}}
\newcommand{\alphabf}{\bm{\alpha}}
\newcommand{\mubf}{\bm{\mu}}
\newcommand{\I}{\mathbf{I}} % Fisher information matrix
\newcommand{\C}{\mathbf{C}} % Covariance matrix
\newcommand{\abf}{\mathbf{a}}
\newcommand{\bbf}{\mathbf{b}}
\newcommand{\e}{\mathbf{e}}
\newcommand{\ubf}{\mathbf{u}}
\newcommand{\vbf}{\mathbf{v}}
\newcommand{\A}{\mathbf{A}}
\newcommand{\B}{\mathbf{B}}
\newcommand{\D}{\mathbf{D}}
\newcommand{\F}{\mathbf{F}}
\newcommand{\G}{\mathbf{G}}
\newcommand{\Hbf}{\mathbf{H}}
\newcommand{\K}{\mathbf{K}}
\newcommand{\Lbf}{\mathbf{L}}
\newcommand{\M}{\mathbf{M}}
\newcommand{\R}{\mathbf{R}}
\newcommand{\T}{\mathbf{T}}
\newcommand{\W}{\mathbf{W}}
\newcommand{\X}{\mathbf{X}}
\newcommand{\Y}{\mathbf{Y}}
\newcommand{\Pbf}{\mathbf{P}}
\renewcommand{\Re}{\operatorname{Re}}
\renewcommand{\Im}{\operatorname{Im}}
\DeclareMathOperator*{\argmin}{arg\,min}
\DeclareMathOperator*{\argmax}{arg\,max}
\DeclareMathOperator{\PV}{P.V.}
\DeclareMathOperator{\tr}{tr}
\DeclareMathOperator{\cov}{cov}
\DeclareMathOperator{\ARG}{ARG}
\DeclareMathOperator{\Log}{Log}
\DeclareMathOperator{\sech}{sech}
\DeclareMathOperator{\csch}{csch}
\DeclareMathOperator{\grd}{grd}
\def\Res{\qopname\relax m{Res}}
\title{Estudiando el libro ``Discrete-Time Signal Processing''\\de Alan V. Oppenheim y Ronald W. Schafer}
\author{Ernesto López}
\begin{document}
\hypersetup{pageanchor=false}
\maketitle
\hypersetup{pageanchor=true}
\pagenumbering{roman}
\tableofcontents
\chapter*{Prefacio}
El presente documento consiste en apuntes sobre procesamiento de señales discretas. Se seguirá fielmente el libro \cite{oppenheim2009discrete}. Solo se incluye un resumen de los conceptos básicos y se profundizará en los tópicos mas avanzados de procesamiento de señales incluidos en el libro.
\pagenumbering{arabic}
\chapter{Señales y sistemas en tiempo discreto}\label{ch:signals_and_systems}
\section{Señales en tiempo discreto}
En la teoría de señales y sistemas en tiempo discreto, hay secuencias son de particular importancia. Algunas son las siguientes:
\begin{itemize}
\item \emph{Impuso unidad:}
\begin{equation}\label{eq:seq_and_sys_unit_sample}
\delta[n]=
\left\{
\begin{array}{rr}
0, & n\neq0,\\
1, & n=0.
\end{array}
\right.
\end{equation}
Un aspecto importante del impuso unidad es que cualquier secuencia puede expresarse como la suma de impulsos desplazados y escalados como
\begin{equation}\label{eq:seq_and_sys_sequence_as_impuses_sum}
x[n]=\sum_{k=-\infty}^\infty x[k]\delta[n-k].
\end{equation}
\item\emph{Escalón unidad:}
\begin{equation}\label{eq:seq_and_sys_unit_step}
u[n]=
\left\{
\begin{array}{rr}
1, & n\geq0,\\
0, & n<0.
\end{array}
\right.
\end{equation}
El escalón unidad está relacionado con el impuso unidad por
\[
u[n]=\sum_{k=-\infty}^n\delta[k],
\]
es decir, el escalón unidad en el índice (tiempo) \(n\) es la suma acumulada de todas las muestras del impulso unidad hasta el tiempo \(n\). Una representación alternativa del escalón unidad en términos de impulsos es
\[
u[n]=\sum_{k=0}^\infty\delta[n-k],
\]
como en la ecuación \ref{eq:seq_and_sys_sequence_as_impuses_sum}. Por otro lado, el impuso puede expresarse como la \emph{primera diferencia regresiva} del escalón unidad, es decir,
\[
\delta[n]=u[n]-u[n-1].
\]
\item\emph{Exponencial:}
\begin{equation}\label{eq:seq_and_sys_exponential}
u[n]=A\alpha^n,
\end{equation}
donde en el caso mas general, \(\alpha\) y \(A\) son números complejos. Específicamente, si \(\alpha=|\alpha|e^{j\omega_0}\) y \(A=|A|e^{j\phi}\),
\begin{align*}
x[n]&=|A||\alpha|^ne^{j(\omega_0n+\phi)}\\
&=|A||\alpha|^n\cos(\omega_0n+\phi)+j|A||\alpha|^n\sen(\omega_0n+\phi).
\end{align*}
Si \(|\alpha|=1\), la secuencia toma la forma
\begin{align*}
x[n]&=|A|e^{j(\omega_0n+\phi)}\\
&=|A|\cos(\omega_0n+\phi)+j|A|\sen(\omega_0n+\phi).
\end{align*}
En esta secuencia, la parte real e imaginaria oscilan sinusoidalmente con \(n\). Por analogía con el caso en tiempo continuo, \(\omega_0\) es la \emph{frecuencia} y \(\phi\) es la \emph{fase}. Sin embargo, como \(n\) es adimensionado, las unidades de \(\omega_0\) son radianes. Para mantener un analogía mas cercana al caso continuo, puede especificarse que las unidades de \(\omega_0\) son radianes por muestra y las unidades de \(n\) son muestras.
El hecho de que \(n\) sea un número entero conduce a diferencias importantes de las propiedades de las señales exponenciales complejas y sinusoidales en tiempo continuo y en tiempo discreto. A diferencia del caso en tiempo continuo, las secuencias exponenciales complejas y sinusoidales con frecuencias \(\omega_0+2\pi r\), con \(r\) entero, son indistinguibles entre si, ya que
\[
e^{j[(\omega_0+2\pi r)n+\phi]}=e^{j(\omega_0n+\phi)}.
\]
Por lo tanto, al estudiar secuencias exponenciales complejas de la forma \(x[n]=Ae^{j(\omega_0n+\phi)}\) o señales sinusoidales reales de la forma \(x[n]=A\cos(\omega_0n+\phi)\) solo se necesita considerar frecuencias en un intervalo de \(2\pi\). Típicamente se eligen los intervalos \(-\pi<\omega_0\leq\pi\) o \(0\leq\omega_0<2\pi\).
A diferencia del caso en tiempo continuo, una secuencia exponencial compleja o sinusoidal no necesariamente es periódica. Las secuencias periódicas son aquellas que cumplen que
\[
x[n]=x[n+N],
\qquad\qquad\textrm{para todo }n,
\]
donde el período \(N\) es entero. Si se prueba está condición para una secuencia sinusoidal,
\[
A\cos(\omega_0n+\phi)=A\cos(\omega_0n+\omega_0N+\phi),
\]
se requiere que
\begin{equation}\label{eq:seq_and_sys_sinusoidal_periodicity_condition}
\omega_0N=2\pi k,
\end{equation}
con \(k\) entero. Por lo tanto, las secuencias exponenciales complejas y sinusoidales no necesariamente son periódicas con período \(2\pi/\omega_0\), y dependiendo del valor de \(\omega_0\), pueden no ser periódicas en absoluto.
Si se combina la condición de la ecuación \ref{eq:seq_and_sys_sinusoidal_periodicity_condition} con la observación previa de que las frecuencias \(\omega_0\) y \(\omega_0+2\pi r\) son indistinguibles, se deduce que una secuencia de período \(N\) puede ser de \(N\) frecuencias distinguibles. El conjunto de frecuencias distintas es
\[
\omega_k=\frac{2\pi k}{N},
\qquad\qquad
k=0,\,1,\,\dots,\,N-1.
\]
Vinculado a la discusión precedente es el hecho de que la interpretación de bajas y altas frecuencias es distinto para secuencias exponenciales complejas y sinusoidales. Para la secuencia sinusoidal \(x[n]=A\cos(\omega_0n+\phi)\), cuando la frecuencia \(\omega_0\) crece desde \(\omega_0=0\) a \(\omega_0=\pi\), \(x[n]\) oscila progresivamente mas rápidamente, pero cuando la frecuencia \(\omega_0\) crece desde \(\omega_0=\pi\) a \(\omega_0=2\pi\), las oscilaciones se hacen mas lentas. Esto es porque las frecuencias \(\omega_0\) y \(2\pi-\omega_0\) tienen la misma velocidad de oscilación, ya que, por ejemplo
\[
\sen[(2\pi-\omega_0)n]=\sen(2\pi n-\omega_0n)=\sen(-\omega_0n)=-\sen(\omega_0n).
\]
Como consecuencia, para secuencias sinusoidales y exponenciales complejas, las frecuencias cercanas a \(\omega_0=2\pi k\), con \(k\) entero, son referidas como bajas frecuencias, y las frecuencias en la vecindad de \(\pi+2\pi k\), con \(k\) entero, son referidas como altas frecuencias.
\end{itemize}
\section{Sistemas en tiempo discreto}
Un sistema en tiempo discreto se define matemáticamente como una transformación que se aplica sobre una secuencia de entrada \(x[n]\) para obtener una secuencia de salida \(y[n]\). Se denota como
\[
y[n]=T\{x[n]\}.
\]
A continuación se dan ejemplos de algunos sistemas básicos que serán útiles para ilustrar las propiedades de los sistemas en tiempo discreto mas adelante.
\begin{itemize}
\item\emph{Retardo ideal:}
\begin{equation}\label{eq:seq_and_sys_system_ideal_delay}
y[n]=x[n-n_d],
\qquad\qquad
-\infty<n<\infty,
\end{equation}
donde \(n_d\) es un entero positivo. El retardo ideal desplaza la entrada hacia la derecha \(n_d\) muestras. En el caso en que \(n_d\) es negativo, desplaza la señal de entrada a la izquierda \(n_d\) muestras, correspondiendo a un adelanto temporal.
\item\emph{Media móvil:}
\begin{equation}\label{eq:seq_and_sys_system_moving_average}
y[n]=\frac{1}{M_1+M_2+1}\sum_{k=-M_1}^{M_2}x[n-k].
\end{equation}
En este sistema, la \(n\)-ésima nuestra de la salida es el promedio de \(M_1+M_2+1\) muestras de la entrada en torno a la \(n\)-ésima muestra.
\item\emph{Acumulador:}
\begin{equation}\label{eq:seq_and_sys_system_accumulator}
y[n]=\sum_{k=-\infty}^nx[k].
\end{equation}
Las salida en el tiempo \(n\) es la suma de la muestra presente y todas las muestras pasadas de la entrada.
\item\emph{Compresor:}
\begin{equation}\label{eq:seq_and_sys_system_compressor}
y[n]=x[Mn],
\qquad\qquad
-\infty<n<\infty,
\end{equation}
donde \(M\) es un entero positivo. Este sistema descarta \(M-1\) por cada \(M\) muestras de la entrada.
\item\emph{Diferencia progresiva y regresiva:} el sistema diferencia progresiva esta dado por la ecuación
\begin{equation}\label{eq:seq_and_sys_system_forward_difference}
y[n]=x[n+1]-x[n]
\end{equation}
y el sistema diferencia regresiva esta dado por la ecuación
\begin{equation}\label{eq:seq_and_sys_system_backward_difference}
y[n]=x[n]-x[n-1].
\end{equation}
\end{itemize}
Imponiendo restricciones sobre las propiedades de la transformación \(T\{\cdot\}\) se definen clases de sistemas. En las siguientes secciones se brinda una clasificación de sistemas con restricciones y propiedades especialmente importantes.
\subsection{Sistemas sin memoria}
Un sistema se dice sin memoria si la salida \(y[n]\) en cada instante \(n\) depende solo de la entrada \(x[n]\) en el mismo instante \(n\).
Los sistemas retardo ideal y media móvil no son sin memoria a menos que \(n_d=0\) y \(M_1=M_2=0\) respectivamente. El resto de los sistemas definidos al comienzo de la sección también son sin memoria. Un ejemplo de un sistema sin memoria es
\begin{equation}\label{eq:seq_and_sys_system_input_square}
y[n]=(x[n])^2.
\end{equation}
\subsection{Sistemas lineales}
La clase de sistemas lineales está definida por el \emph{principio de superposición}. Si \(y_1[n]\) e \(y_2[n]\) son las respuestas de un sistema cuando las entradas son \(x_1[n]\) y \(x_2[n]\) respectivamente, el sistema es lineal si y solo si
\begin{equation}\label{eq:seq_and_sys_sys_properties_superposition}
T\{ax_1[n]+bx_2[n]\}=aT\{x_1[n]\}+bT\{x_2[n]\},
\end{equation}
donde \(a\) y \(b\) son constantes arbitrarias. La ecuación \ref{eq:seq_and_sys_sys_properties_superposition} es el principio de superposición.
La prueba de que un sistema es lineal requiere una demostración general sin realizar hipótesis específicas sobre las señales de entrada. Por el contrario, la prueba de que un sistema no es lineal solo requiere un contraejemplo.
A partir del principio de superposición puede mostrarse que todos los sistemas presentados al comienzo de esta sección son lineales. El sistema definido por la ecuación \ref{eq:seq_and_sys_system_input_square} no es lineal.
\subsection{Sistemas invariantes en el tiempo}
Un sistema invariante en el tiempo es un sistema para el cual un desplazamiento temporal de la secuencia de entrada produce el mismo desplazamiento temporal en la secuencia de salida. Específicamente, supóngase que un sistema transforma la secuencia de entrada \(x[n]\) en la secuencia de salida \(y[n]\). El sistema es invariante en el tiempo si, para todo \(n_0\), la secuencia de entrada \(x_1[n]=x[n-n_0]\) produce la secuencia de salida \(y_1[n]=y[n-n_0]\).
Al igual que con los sistemas lineales, la prueba de la invarianza temporal requiere una demostración general sin imposición de hipótesis sobre la secuencia de entrada, y alcanza un contraejemplo para probar lo contrario.
El sistema compresor, dado por la ecuación \ref{eq:seq_and_sys_system_compressor}, no es invariante en el tiempo. Si lo fuera, dado que la entrada \(x[n]\) produce la salida \(y[n]=x[Mn]\), la entrada \(x_1[n]=x[n-n_0]\) debería producir la salida
\[
y[n-n_0]=x[M(n-n_0)]=x[Mn-Mn_0].
\]
Sin embargo, la entrada \(x_1[n]\) produce la salida
\[
y_1[n]=x_1[Mn]=x[Mn-n_0],
\]
que es distinta a \(y[n-n_0]\). La no invarianza también se podría mostrar con un contraejemplo: sea \(M=2\), \(x[n]=\delta[n]\) y \(n_0=1\), es decir, \(x_1[n]=x[n-1]=\delta[n-1]\). La salida es \(y[n]=\delta[n]\), pero \(y_1[n]=0\), y por lo tanto, como \(y[n-1]\neq y_1[n]\), el sistema no es invariante en el tiempo. Puede probarse que el resto de los sistemas al comienzo de la sección son invariantes en el tiempo.
\subsection{Sistemas causales}\label{sec:seq_and_sys_causal_system}
Un sistema es causal si para cada \(n_0\), la secuencia de salida en el instante \(n=n_0\) depende solo de valores de la secuencia de entrada en \(n\leq n_0\). Esto implica que si \(x_1[n]=x_2[n]\) para \(n\leq n_0\) se cumple que \(y_1[n]=y_2[n]\) para \(n\leq n_0\). Conceptualmente significa que el sistema es \emph{no anticipativo}.
Para verificar si el sistema retardo ideal es causal, sean las entradas \(x_1[n]\) y \(x_2[n]\) que cumplen que \(x_1[n]=x_2[n]\) para \(n\leq n_0\), y sean \(y_1[n]=x_1[n-n_d]\) y \(y_2[n]=x_2[n-n_d]\) las salidas correspondientes. De esta forma, \(y_1[n]=y_2[n]\) si \(x_1[n-n_d]=x_2[n-n_d]\), y por hipótesis esto es cierto si
\begin{equation}\label{eq:seq_and_sys_causality_proof_tmp}
n-n_d\leq n_0
\qquad\qquad\Leftrightarrow\qquad\qquad
n\leq n_0+n_d.
\end{equation}
Pero para que el sistema sea causal se requiere que \(y_1[n]=y_2[n]\) para \(n\leq n_0\), lo que en la condición \ref{eq:seq_and_sys_causality_proof_tmp} ocurre si \(n_d\geq0\). Se concluye que el sistema es causal si \(n_d\geq0\) y no es causal si \(n_d<0\). En general, en la práctica es directo determinar si un sistema es causal inspeccionando si en la ecuación del sistema la salida depende de muestras futuras de la entrada. Así, el sistema media móvil de la ecuación \ref{eq:seq_and_sys_system_moving_average} es causal si \(M_1\leq0\) y \(M_2\geq0\), y en otro caso es no causal. El sistema acumulador y el sistema diferencia regresiva de las ecuaciones \ref{eq:seq_and_sys_system_accumulator} y \ref{eq:seq_and_sys_system_backward_difference} son causales. El sistema compresor de la ecuación \ref{eq:seq_and_sys_system_compressor} no es causal si \(M>1\) y el sistema diferencia progresiva dado por la ecuación \ref{eq:seq_and_sys_system_forward_difference} no es causal.
\subsection{Sistemas estables}\label{sec:seq_and_sys_stable_system}
Un sistema es estable en el sentido \emph{entrada acotada, salida acotada} (\emph{BIBO}, Bounded Input, Bounded Output) si y solo si cada entrada acotada produce una salida acotada. La entrada es acotada si existe un número positivo fijo \(B_x\) tal que
\[
|x[n]|\leq B_x<\infty,
\qquad\qquad\textrm{para todo } n.
\]
La propiedad de estabilidad requiere que para toda entrada acotada exista un número positivo fijo \(B_y\) tal que
\[
|y[n]|\leq B_y<\infty,
\qquad\qquad\textrm{para todo } n.
\]
Puede probarse que los sistemas retardo ideal, media móvil y diferencia progresiva y regresiva son estables y el sistema acumulador no es estable.
\section{Sistemas lineales e invariantes en el tiempo}
Una clase importante de sistemas son aquellos que son tanto lineales como invariantes en el tiempo (\emph{LTI}, Linear Time Invariant). La importancia radica en que conociendo la respuesta al impuso del sistema, es posible calcular la respuesta a cualquier entrada, y por lo tanto, tienen una gran cantidad de aplicaciones en procesamiento de señales. Específicamente, si \(h[n]\) es la respuesta al impulso de un sistema LTI, la salida es
\begin{equation}\label{eq:seq_and_sys_convolution_definition}
y[n]=\sum_{k=-\infty}^\infty x[k]h[n-k],
\qquad\qquad\textrm{para todo }n.
\end{equation}
Esta ecuación se denomina \emph{suma de convolución} y se representa mediante la notación
\[
y[n]=x[n]*h[n].
\]
\section{Propiedades de los sistemas lineales e invariantes en el tiempo}\label{sec:seq_and_sys_lti_properties}
Como el comportamiento de todos los sistemas LTI está determinado por la suma de convolución, las propiedades de esta clase de sistemas están establecidas por las propiedades de la convolución.
Algunas propiedades generales de la convolución son las siguientes:
\begin{itemize}
\item \emph{Conmutativa:}
\[
x[n]*h[n]=h[n]*x[n].
\]
Esto implica que un sistema LTI con entrada \(x[n]\) y respuesta al impulso \(h[n]\) tiene la misma salida que un sistema LTI con entrada \(h[n]\) y respuesta al impulso \(x[n]\), como se ilustra en la figura \ref{fig:lti_properties_conmutative}.
\begin{figure}[!htb]
\begin{minipage}[c]{0.53\textwidth}
\includegraphics[width=\textwidth]{figuras/lti_properties_conmutative.pdf}
\end{minipage}\hfill
\begin{minipage}[c]{0.38\textwidth}
\caption{
Propiedad conmutativa de la convolución.
}\label{fig:lti_properties_conmutative}
\end{minipage}
\end{figure}
\item \emph{Distributiva sobre la adición:}
\[
x[n]*(h_1[n]+h_2[n])=x[n]*h_1[n]+x[n]*h_2[n].
\]
Esto significa que el sistema equivalente a dos sistemas LTI en paralelo con respuestas al impulso \(h_1[n]\) y \(h_2[n]\) es un sistema LTI con respuesta al impulso \(h_1[n]+h_2[n]\), como se muestra en la figura \ref{fig:lti_properties_distributive}.
\begin{figure}[!htb]
\begin{minipage}[c]{0.6\textwidth}
\includegraphics[width=\textwidth]{figuras/lti_properties_distributive.pdf}
\end{minipage}\hfill
\begin{minipage}[c]{0.3\textwidth}
\caption{
Propiedad conmutativa de la convolución y equivalencia de sistemas en paralelo.
}\label{fig:lti_properties_distributive}
\end{minipage}
\end{figure}
\item \emph{Asociativa:}
\[
y[n]=(x[n]*h_1[n])*h_2[n]=x[n]*(h_1[n])*h_2[n].
\]
Esto implica que la respuesta al impulso de dos sistemas LTI en serie es la convolución de sus respuestas al impulso, como se muestra en la figura \ref{fig:lti_properties_asociative}.
\begin{figure}[!htb]
\begin{minipage}[c]{0.65\textwidth}
\includegraphics[width=\textwidth]{figuras/lti_properties_asociative.pdf}
\end{minipage}\hfill
\begin{minipage}[c]{0.25\textwidth}
\caption{
Propiedad asociativa de la convolución y equivalencia de sistemas en serie.
}\label{fig:lti_properties_asociative}
\end{minipage}
\end{figure}
\end{itemize}
Dos propiedades de los sistemas adicionales a la linealidad y la invarianza temporal son la estabilidad y la causalidad, y es importante poder determinar cuando un sistema LTI es estable y cuando es causal. Como los sistemas LTI están caracterizados por la respuesta al impulso, es posible determinar las propiedades del sistema a partir de las características de la respuesta al impulso.
\subsection{Estabilidad de los sistemas LTI}
Recordar de la sección \ref{sec:seq_and_sys_stable_system} que un sistema es estable si toda entrada acotada produce una salida acotada. Puede mostrarse que un sistema LTI es estable si y solo si su respuesta al impulso es absolutamente sumable, es decir, si
\begin{equation}\label{eq:seq_and_sys_stability_condition}
B_h=\sum_{k=-\infty}^\infty|h[k]|\leq\infty.
\end{equation}
Para estudiar la estabilidad de un sistema, alcanza con calcular la respuesta al impulso a partir de la ecuación del sistema imponiendo como entrada \(\delta[n]\) y luego verificar si se cumple la ecuación \ref{eq:seq_and_sys_stability_condition}.
Por ejemplo, la respuesta al impulso de los sistemas media móvil y acumulador, dados respectivamente por las \ref{eq:seq_and_sys_system_moving_average} y \ref{eq:seq_and_sys_system_accumulator} son
\begin{itemize}
\item \emph{Media móvil:}
\begin{align}
h[n]&=\frac{1}{M_1+M_2+1}\sum_{k=-M_1}^{M_2}\delta[n-k]\nonumber\\
&=\frac{1}{M_1+M_2+1}\left(\delta[n+M_1]+\delta[n+M_1-1]+\cdots+\delta[n]+\cdots+\delta[n-M_2+1]+\delta[n-M_2]\right)\nonumber\\
&=\left\{
\begin{array}{ll}
\dfrac{1}{M_1+M_2+1}, & -M_1\leq n\leq M_2\\
0, &\textrm{en otro caso}.
\end{array}
\right.\nonumber\\
&=\frac{1}{M_1+M_2+1}(u[n+M_1]-u[n-M_2-1])\label{eq:seq_and_sys_system_moving_average_impulse}
\end{align}
Por lo tanto,
\[
B_h=\sum_{k=-M_1}^{M_2}\frac{1}{M_1+M_2+1}=1,
\]
concluyendo que el sistema media móvil es estable.
\item \emph{Acumulador:}
\begin{align*}
h[n]&=\sum_{k=-\infty}^n\delta[k]\\
&=\left\{
\begin{array}{ll}
1, & n\geq0\\
0, & n<0
\end{array}
\right.\\
&=u[n].
\end{align*}
Por lo tanto,
\[
B_h=\sum_{k=-\infty}^\infty u[k]=\sum_{k=0}^\infty 1=\infty,
\]
concluyendo que el sistema acumulador no es estable.
\end{itemize}
Además, los sistemas retardo ideal y diferencia progresiva y regresiva, dados por las ecuaciones \ref{eq:seq_and_sys_system_ideal_delay}, \ref{eq:seq_and_sys_system_forward_difference} y \ref{eq:seq_and_sys_system_backward_difference} respectivamente, son estables. En general, un sistema con respuesta al impulso de duración finita (\emph{FIR}, finite-duration impulse response) es siempre estable si las muestras de la respuesta al impulso tienen magnitud finita. Observar que la respuesta al impulso del sistema acumular es de duración infinita (\emph{IIR}, infinite-duration impulse response).
\subsection{Causalidad de los sistemas LTI}
Puede mostrarse a partir de la definición \ref{eq:seq_and_sys_convolution_definition} de la convolución que la condición necesaria y suficiente para que un sistema sea causal es que la respuesta al impulso cumpla que
\begin{equation}\label{eq:seq_and_sys_causality_condition}
h[n]=0,
\qquad\qquad
n<0.
\end{equation}
Por este motivo, cualquier secuencia nula en \(n<0\) es referida como \emph{secuencia causal}.
Para estudiar la causalidad de un sistema LTI, hay que calcular la respuesta al impulso y verificar si se cumple la ecuación \ref{eq:seq_and_sys_causality_condition}. Al hacerlo, se comprobarán los resultados discutidos en la sección \ref{sec:seq_and_sys_causal_system} sobre la causalidad de los sistemas empleados como ejemplo.
\section{Ecuaciones en diferencias lineales con coeficientes constantes}\label{sec:seq_and_sys_constant_coefficient_difference_equations}
Una clase importante de sistemas LTI consiste en los sistemas en los que la entrada \(x[n]\) y la salida \(y[n]\) satisfacen una ecuación en diferencias lineales con coeficientes constantes de orden \(N\) de la forma
\begin{equation}\label{eq:seq_and_sys_difference_equation_general}
\sum_{k=0}^Na_ky[n-k]=\sum_{m=0}^Mb_mx[n-m].
\end{equation}
\paragraph{Ejemplo: representación como ecuación en diferencias del acumulador.} El sistema acumulador se define como (ver la ecuación \ref{eq:seq_and_sys_system_accumulator})
\[
y[n]=\sum_{k=-\infty}^nx[k].
\]
Para mostrar que la entrada y la salida satisfacen una ecuación en diferencias de la forma de la ecuación \ref{eq:seq_and_sys_difference_equation_general}, escríbase la ecuación del acumulador como
\[
y[n]=x[n]+\sum_{k=-\infty}^{n-1}x[k],
\]
y además como
\[
y[n-1]=\sum_{k=-\infty}^{n-1}x[k]
\]
se obtiene que
\begin{equation}\label{eq:seq_and_sys_difference_equation_accumulator}
y[n]=x[n]+y[n-1]
\end{equation}
o equivalentemente
\[
y[n]-y[n-1]=x[n].
\]
La ecuación en diferencias \ref{eq:seq_and_sys_difference_equation_accumulator} sugiere una implementación simple del acumulador: para cada valor de \(n\), se suma el valor actual \(x[n]\) de la entrada a la suma acumulada \(y[n-1]\). Esta interpretación del acumulador se muestra en el diagrama de bloques de la figura \ref{fig:difference_equation_accumulator_blocks}.
\begin{figure}[!htb]
\begin{minipage}[c]{0.35\textwidth}
\includegraphics[width=\textwidth]{figuras/difference_equation_accumulator_blocks.pdf}
\end{minipage}\hfill
\begin{minipage}[c]{0.55\textwidth}
\caption{
Diagrama de bloques de la ecuación en diferencias del acumulador.
}\label{fig:difference_equation_accumulator_blocks}
\end{minipage}
\end{figure}
\paragraph{Ejemplo: representación como ecuación en diferencias del sistema de media móvil.} Considérese el sistema de media móvil, dado por la ecuación \ref{eq:seq_and_sys_system_moving_average}, con \(M_1=0\) de forma de que sea causal. En ese caso, la ecuación del sistema es
\begin{equation}\label{eq:seq_and_sys_system_moving_average_causal}
y[n]=\frac{1}{M_2+1}\sum_{k=0}^{M_2}x[n-k],
\end{equation}
que es una ecuación en diferencias de la forma de la ecuación \ref{eq:seq_and_sys_difference_equation_general}.
Por otro lado, la respuesta al impuso, dada por la ecuación \ref{eq:seq_and_sys_system_moving_average_impulse}, puede escribirse como
\[
h[n]=\frac{1}{M_2+1}(\delta[n]-\delta[n-M_2-1])*u[n],
\]
que sugiere la representación del sistema media móvil causal puede representarse mediante los sistemas en cascada de la figura \ref{fig:difference_equation_moving_average_blocks}.
\begin{figure}[!htb]
\begin{center}
\includegraphics[width=0.88\textwidth]{figuras/difference_equation_moving_average_blocks.pdf}
\caption{\label{fig:difference_equation_moving_average_blocks} Diagrama de bloques del sistema media móvil.}
\end{center}
\end{figure}
Para obtener la ecuación en diferencias de este diagrama de bloques, se observa primero que
\[
x_1[n]=\frac{1}{M+1}(x[n]-x[n-M_2-1]).
\]
Además, de la ecuación \ref{eq:seq_and_sys_difference_equation_accumulator}, la salida del sistema acumulador cumple la ecuación en diferencias
\[
y[n]-y[n-1]=x_1[n],
\]
resultando en que
\begin{align*}\label{eq:seq_and_sys_difference_equation_moving_averge}
y[n]-y[n-1]=\frac{1}{M+1}(x[n]-x[n-M_2-1]),
\end{align*}
que es una ecuación en diferencias de la forma \ref{eq:seq_and_sys_difference_equation_general}. En este ejemplo se ve que el sistema media móvil admite mas de una representación en ecuaciones en diferencia, una recursiva y otra no recursiva. Este es un caso muy particular de un sistema recursivo que tiene respuesta al impulso finita.
Al igual que en el caso de ecuaciones diferenciales en tiempo continuo, sin restricciones adicionales, una ecuación en diferencias lineal con coeficientes constantes en tiempo discreto no provee una única especificación de la salida dada una entrada. Concretamente, supóngase que para una entrada dada \(x_p[n]\), se determinó de alguna forma que la salida es \(y_p[n]\), tal que se satisface la ecuación \ref{eq:seq_and_sys_difference_equation_general}. Entonces, la misma ecuación con la misma entrada es satisfecha para cualquier salida de la forma
\[
y[n]=y_p[n]+y_h[n],
\]
donde \(y_h[n]\) es cualquier solución de la ecuación \ref{eq:seq_and_sys_difference_equation_general} con \(x[n]=0\), es decir, cualquier solución de la ecuación
\begin{equation}\label{eq:seq_and_sys_difference_equation_homogeneous}
\sum_{k=0}^Na_ky_h[n-k]=0.
\end{equation}
La ecuación \ref{eq:seq_and_sys_difference_equation_homogeneous} se llama \emph{ecuación en diferencias homogénea} y la solución \(y_h[n]\) se llama \emph{solución homogénea}. La secuencia \(y_h[n]\) es un miembro de la familia de soluciones de la forma
\begin{equation}\label{eq:seq_and_sys_difference_equation_homogeneous_solution}
y_h[n]=\sum_{m=1}^NA_mz_m^n,
\end{equation}
donde los coeficientes \(A_m\) pueden elegirse para satisfacer un conjunto de condiciones auxiliares sobre \(y[n]\). Efectivamente, sustituyendo la ecuación \ref{eq:seq_and_sys_difference_equation_homogeneous_solution} en la ecuación \ref{eq:seq_and_sys_difference_equation_homogeneous} se observa que
\[
\sum_{k=0}^Na_k\left(\sum_{m=1}^NA_mz_m^{n-k}\right)=0,
\]
y por lo tanto
\[
\sum_{m=1}^NA_mz_m^n\left(\sum_{k=0}^Na_kz_m^{-k}\right)=0.
\]
Esta ecuación se cumple para cualquier conjunto de valores \(A_m\) cuando los números complejos \(z_m\) con \(m=1,\,2,\,\dots,\,N\) son las raíces del polinomio
\begin{equation}\label{eq:seq_and_sys_difference_equation_homogeneous_solution_Az}
A(z)=\sum_{k=0}^Na_kz^{-k}.
\end{equation}
\paragraph{Ejemplo (problema 2.50).} Sea la ecuación en diferencias
\[
y[n]-\frac{3}{4}y[n-1]+\frac{1}{8}y[n-2]=2x[n-1].
\]
Se determinará la forma general de la solución homogénea. Según la ecuación \ref{eq:seq_and_sys_difference_equation_homogeneous_solution}, en este caso la solución homogénea es de la forma
\[
y_h[n]=A_1z_1^n+A_2z_2^n,
\]
donde, como indica la ecuación \ref{eq:seq_and_sys_difference_equation_homogeneous_solution_Az}, \(z_1\) y \(z_2\) son las raíces del polinomio
\[
A(z)=1-\frac{3}{4}z^{-1}+\frac{1}{8}z^{-2},
\]
que son
\[
z_{1,\,2}=\dfrac{\dfrac{3}{4}\pm\sqrt{\dfrac{9}{16}-\dfrac{4}{8}}}{2}
=\dfrac{\dfrac{3}{4}\pm\sqrt{\dfrac{1}{16}}}{2}=\dfrac{\dfrac{3}{4}\pm\dfrac{1}{4}}{2}
\qquad\qquad\Rightarrow\qquad\qquad
z_1=\frac{1}{2}
\qquad\textrm{y}\qquad
z_2=\frac{1}{4},
\]
resultando en que
\[
y_h[n]=A_1\left(\frac{1}{2}\right)^n+A_2\left(\frac{1}{4}\right)^n.
\]
Puede comprobarse que el resultado obtenido es la solución homogénea verificando que cumple la ecuación homogénea para cualquier valor de \(A_1\) y \(A_2\). Efectivamente,
\begin{align*}
y_h[n]-\frac{3}{4}y_h[n-1]+\frac{1}{8}y_h[n-2]&=A_1\left(\frac{1}{2}\right)^n+A_2\left(\frac{1}{4}\right)^n
-\frac{3}{4}\left[A_1\left(\frac{1}{2}\right)^{n-1}+A_2\left(\frac{1}{4}\right)^{n-1}\right]\\
&\qquad+\frac{1}{8}\left[A_1\left(\frac{1}{2}\right)^{n-2}+A_2\left(\frac{1}{4}\right)^{n-2}\right]\\
&=A_1\left(\frac{1}{2}\right)^n\left(1-\frac{3}{2}+\frac{1}{2}\right)
+A_2\left(\frac{1}{4}\right)^n\left(1-3+2\right)\\
&=0.
\end{align*}
Finalmente se determinarán los coeficientes \(A_1\) y \(A_2\) de la solución homogénea si \(y[-1]=1\) y \(y[0]=0\). Con estas condiciones,
\[
\left\{
\begin{array}{lclclc}
y[-1] & = & 2A_1+4A_2 & = & 1\\
y[0] & = & A_1+A_2 & = & 0
\end{array}
\right.
\qquad\qquad\Rightarrow\qquad\qquad
A_1=-\frac{1}{2}
\qquad\textrm{y}\qquad
A_2=\frac{1}{2},
\]
resultando en que
\[
y_h[n]=-\frac{1}{2}\left(\frac{1}{2}\right)^n+\frac{1}{2}\left(\frac{1}{4}\right)^n.
\]
La ecuación \ref{eq:seq_and_sys_difference_equation_homogeneous_solution} asume que todas las raíces del polinomio \ref{eq:seq_and_sys_difference_equation_homogeneous_solution_Az} son distintas. Si el polinomio tiene raíces múltiples, la ecuación \ref{eq:seq_and_sys_difference_equation_homogeneous_solution} tiene una forma ligeramente diferente, como se ilustra en el siguiente ejemplo, pero siempre hay \(N\) coeficientes indeterminados.
\paragraph{Ejemplo (problema 2.50, continuación).} Sea la ecuación en diferencias
\[
y[n]-y[n-1]+\frac{1}{4}y[n-2]=2x[n-1].
\]
Se intentará determinar la forma general de la solución homogénea empleando la ecuación \ref{eq:seq_and_sys_difference_equation_homogeneous_solution}. Según esa ecuación, la solución homogénea es de la forma
\[
y_h[n]=A_1z_1^n+A_2z_2^n,
\]
donde, como indica la ecuación \ref{eq:seq_and_sys_difference_equation_homogeneous_solution_Az}, \(z_1\) y \(z_2\) son las raíces del polinomio
\[
A(z)=1-z^{-1}+\frac{1}{4}z^{-2},
\]
que son
\[
z_{1,\,2}=\dfrac{1\pm\sqrt{1-1}}{2}
=\frac{1}{2}.
\]
En este caso, el polinomio \(A(z)\) tiene una raíz doble, resultando en que
\[
y_h[n]=A_1\left(\frac{1}{2}\right)^n+A_2\left(\frac{1}{2}\right)^n=(A_1+A_2)\left(\frac{1}{2}\right)^n
=C\left(\frac{1}{2}\right)^n.
\]
Puede mostrarse que el resultado efectivamente satisface la ecuación homogénea para todo valor de \(C\). Sin embargo, como hay solo un coeficiente no pueden imponerse el par de condiciones iniciales, como por ejemplo, \(y[-1]=1\) y \(y[0]=0\). En el caso en que el polinomio \ref{eq:seq_and_sys_difference_equation_homogeneous_solution_Az} tiene una raíz doble, en lugar de la ecuación \ref{eq:seq_and_sys_difference_equation_homogeneous_solution}, la forma general de la solución homogénea es
\[
y_h[n]=\sum_{m=1}^{N-1}A_mz_m^n+nB_1z_1^n,
\]
donde la raíz duplicada es \(z_1\). De esta ecuación, se obtiene que la solución homogénea general es
\[
y_h[n]=A_1\left(\frac{1}{2}\right)^n+nB_1\left(\frac{1}{2}\right)^n=(A_1+nB_1)\left(\frac{1}{2}\right)^n.
\]
Puede verificarse que efectivamente es la solución homogénea general, ya que
\begin{align*}
y_h[n]-y_h[n-1]+\frac{1}{4}y_h[n-2]&=(A_1+nB_1)\left(\frac{1}{2}\right)^n-[A_1+(n-1)B_1]\left(\frac{1}{2}\right)^{n-1}\\
&\qquad+\frac{1}{4}[A_1+(n-2)B_1]\left(\frac{1}{2}\right)^{n-2}\\
&=\left[(A_1+nB_1)-2(A_1+nB_1-B_1)+(A_1+nB_1-2B_1)\right]\left(\frac{1}{2}\right)^n\\
&=0.
\end{align*}
Si se imponen las condiciones \(y[-1]=1\) y \(y[0]=0\) pueden determinarse los coeficientes \(A_1\) y \(B_1\):
\[
\left\{
\begin{array}{lclclc}
y[-1] & = & 2A_1-2B_1 & = & 1\\
y[0] & = & A_1 & = & 0
\end{array}
\right.
\qquad\qquad\Rightarrow\qquad\qquad
A_1=0
\qquad\textrm{y}\qquad
B_1=-\frac{1}{2},
\]
resultando en que
\[
y_h[n]=-\frac{n}{2^{n+1}}.
\]
Como \(y_h[n]\) tiene \(N\) coeficientes indeterminados, se necesita un conjunto de \(N\) condiciones auxiliares para la especificación unívoca de \(y[n]\) dado \(x[n]\). Esas condiciones auxiliares pueden consistir en la especificación de los valores de \(y[n]\) para ciertos valores de \(n\), como por ejemplo \(y[-1],\,y[-2],\dots,\,y[-N]\). Los coeficientes se determinan resolviendo el sistema de \(N\) ecuaciones lineales, como se hizo en los ejemplos precedentes.
De particular interés son los sistemas lineales e invariantes en el tiempo, y en ese caso, las condiciones auxiliares deben ser consistentes con ese requerimiento. En el capítulo \ref{ch:z_transform}, donde se discute la solución de ecuaciones en diferencias empleando la transformada \(z\), se incorporan implícitamente condiciones de linealidad e invarianza temporal. Como se verá, incluso con las condiciones de linealidad e invarianza temporal, la solución de la ecuación en diferencias no queda unívocamente determinada, y por lo tanto, tampoco el sistema. En particular, en general hay tanto un sistema LTI causal como uno no causal consistente con una ecuación en diferencias dada.
\paragraph{Ejemplo (problema 2.51).} Se considera un sistema con entrada \(x[n]\) y salida \(y[n]\). La relación entre la entrada y la salida está definida por las siguientes dos propiedades:
\begin{enumerate}
\item \(y[n]-ay[n-1]=x[n]\),
\item \(y[0]=1\),
\end{enumerate}
y se quiere determinar si el sistema es lineal e invariante en el tiempo.\\
Como \(y[0]=1\) para cualquier entrada, el sistema no es lineal. Por ejemplo, en un sistema lineal, si se duplica la amplitud de la entrada, se duplica la amplitud de la salida, y en este sistema \(y[0]\) tiene un valor fijo.\\
Para estudiar la invarianza temporal, sean las entradas \(x_1[n]=\delta[n]\) y \(x_2[n]=\delta[n-1]\). Como \(x_2[n]=x_1[n-1]\), si el sistema fuera invariante en el tiempo se debería cumplir que \(y_2[n]=y_1[n-1]\). La salida cuando la entrada es \(x_1[n]=\delta[n]\) cuando \(n\leq0\) es
\[
\begin{array}{lclcl}
y_1[0]&=&1&&\\
y_1[1]&=&ay_1[0]+\delta[1]&=&a\\
y_1[2]&=&ay_1[1]+\delta[2]&=&a^2\\
&\vdots&&&\\
y_1[n]&=&a^n,&&
\end{array}
\]
y la salida cuando la entrada es \(x_2[n]=\delta[n-1]\) cuando \(n\leq0\) es
\[
\begin{array}{lclcl}
y_2[0]&=&1&&\\
y_2[1]&=&ay_2[0]+\delta[0]&=&a+1\\
y_2[2]&=&ay_2[1]+\delta[1]&=&a^2+a\\
&\vdots&&&\\
y_2[n]&=&a^n+a^{n-1}.&&
\end{array}
\]
Como \(y_2[n]\neq y_1[n-1]\), el sistema no es invariante en el tiempo.\\
Se considera ahora el caso en que la condición inicial es \(y[0]=0\). Para estudiar si el sistema es lineal, se considera primero una entrada arbitraria \(x[n]\). La salida del sistema cuando \(n\geq0\) es
\begin{align*}
y[0]&=0\\
y[1]&=ay[0]+x[1]=x[1]\\
y[2]&=ay[1]+x[2]=ax[1]+x[2]\\
y[3]&=ay[2]+x[3]=a^2x[1]+ax[2]+x[3]\\
&\;\vdots\\
y[n]&=a^{n-1}x[1]+a^{n-2}x[2]+\cdots+ax[n-1]+x[n],
\end{align*}
es decir,
\[
y[n]=\sum_{k=0}^{n-1}a^kx[n-k],
\qquad\qquad\textrm{para }n\geq0.
\]
Para calcular la salida recursivamente para \(n<0\), se escribe la ecuación en diferencias como
\[
y[n-1]=a^{-1}(y[n]-x[n])
\qquad\qquad\textrm{con}\qquad\qquad
y[0]=0.
\]
Luego,
\begin{align*}
y[-1]&=a^{-1}(y[0]-x[0])=-a^{-1}x[0]\\
y[-2]&=a^{-1}(y[-1]-x[-1])=-a^{-2}x[0]-a^{-1}x[-1]\\
y[-3]&=a^{-1}(y[-2]-x[-2])=-a^{-3}x[0]-a^{-2}x[-1]-a^{-1}x[0]\\
&\;\vdots\\
y[n]&=-a^{n}x[0]-a^{n+1}x[-1]-\cdots-a^{-2}x[n+2]-a^{-1}x[n+1],
\end{align*}
es decir,
\[
y[n]=-\sum_{k=-1}^{n}a^kx[n-k],
\qquad\qquad\textrm{para }n<0.
\]
Se obtuvo que dada una entrada \(x[n]\), la salida es
\begin{equation}\label{eq:seq_and_sys_exercise_2_51_output}
y[n]=
\left\{
\begin{array}{ll}
\displaystyle\sum_{k=0}^{n-1}a^kx[n-k],&n\geq0\\
\displaystyle-\sum_{k=-1}^{n}a^kx[n-k],&n<0.
\end{array}
\right.
\end{equation}
Sean \(y_1[n]\) y \(y_2[n]\) las correspondientes salidas cuando las entradas son \(x_1[n]\) y \(x_2[n]\), y se considera la entrada
\[
x_3[n]=\alpha x_1[n]+\beta x_2[n].
\]
De la ecuación \ref{eq:seq_and_sys_exercise_2_51_output}, la salida cuando \(n\geq0\) es
\begin{align*}
y_3[n]&=\sum_{k=0}^{n-1}a^kx_3[n-k]\\
&=\sum_{k=0}^{n-1}a^k(\alpha x_1[n-k]+\beta x_2[n-k])\\
&=\alpha\sum_{k=0}^{n-1}a^kx_1[n-k]+\beta\sum_{k=0}^{n-1}a^kx_2[n-k]\\
&=\alpha y_1[n]+\beta y_2[n].
\end{align*}
De forma análoga, cuando \(n<0\), la salida es
\begin{align*}
y_3[n]&=-\sum_{k=-1}^{n}a^kx_3[n-k]\\
&=-\sum_{k=-1}^{n}a^k(\alpha x_1[n-k]+\beta x_2[n-k])\\
&=\alpha\left(-\sum_{k=-1}^{n}a^kx_1[n-k]\right)+\beta\left(-\sum_{k=-1}^{n}a^kx_2[n-k]\right)\\
&=\alpha y_1[n]+\beta y_2[n].
\end{align*}
Se concluye que el sistema es lineal.
Si un sistema es caracterizado por una ecuación en diferencias lineal con coeficientes constantes y además es restringido a ser lineal, invariante en el tiempo y causal, entonces la solución es única. En este caso, se dice que las condiciones auxiliares son \emph{condiciones iniciales de reposo}. Concretamente, la información auxiliar es que si la entrada \(x[n]\) es nula para \(n\) menor a algún instante \(n_0\), la salida \(y[n]\) se restringe a ser nula para \(n\) menor que \(n_0\). Esto provee condiciones iniciales suficientes para obtener \(y[n]\) unívocamente para \(n\geq n_0\) recursivamente.
\paragraph{Ejemplo.} Se considera nuevamente el sistema definido por la ecuación en diferencias
\[
y[n]-ay[n-1]=x[n]
\]
del ejemplo anterior, y se impone la condición adicional de que si la entrada es nula para \(n\leq n_0\), la salida es nula en \(n\leq n_0\). Se mostrará que con esta imposición, el sistema en invariante en el tiempo. Sea la entrada
\[
x_1[n]=x[n]u[n],
\]
donde \(x[n]\) es una secuencia arbitraria. Definida de esta forma se cumple que \(x_1[n]=0\) en \(n<0\), y se impone que la salida \(y_1[n]=0\) en \(n<0\). Esto equivale a imponer la condición auxiliar \(y_1[-1]=0\). En ese caso, la salida para \(n\geq0\) es
\begin{align*}
y_1[0]&=ay_1[-1]+x_1[0]=x[0]\\
y_1[1]&=ay_1[0]+x_1[1]=ax[0]+x[1]\\
y_1[2]&=ay_1[1]+x_1[2]=a^2x[0]+ax[1]+x[2]\\
&\;\vdots\\
y_1[n]&=a^{n}x[0]+a^{n-1}x[1]+\cdots+ax[n-1]+x[n],
\end{align*}
es decir,
\begin{equation}\label{eq:seq_and_sys_exercise_2_51_ext_output}
y_1[n]=\sum_{k=0}^{n}a^kx[n-k],
\qquad\qquad\textrm{para }n\geq0.
\end{equation}
Para calcular la salida recursivamente para \(n<0\), se escribe la ecuación en diferencias como
\[
y[n-1]=a^{-1}(y[n]-x[n])
\qquad\qquad\textrm{con}\qquad\qquad
y[-1]=0.
\]
Luego,
\begin{align*}
y_1[-2]&=a^{-1}(y_1[-1]-x_1[-1])=0\\
y_1[-3]&=a^{-1}(y_1[-2]-x_1[-2])=0\\
&\;\vdots\\
y_1[n]&=0,
\qquad\qquad\textrm{para }n<0.
\end{align*}
Puede verse imponiendo como entrada \(x[n]=\delta[n]\), que la respuesta al impulso del sistema es
\[
h[n]=a^nu[n],
\]
y por lo tanto, el sistema es causal. Además, la ecuación \ref{eq:seq_and_sys_exercise_2_51_ext_output} se puede escribir como
\[
y_1[n]=\sum_{k=0}^{n}a^kx[n-k]=\sum_{k=-\infty}^\infty h[k]x_1[n-k]=h[n]*x_1[n].
\]
Se considera ahora la entrada \(x_2[n]=x_1[n-n_0]=x[n-n_0]u[n-n_0]\), donde \(n_0\) es un entero arbitrario. Ahora, \(x_2[n]=0\) en \(n<n_0\), y la restricción de que \(y_2[n]=0\) en \(n<n_0\) corresponde a la condición inicial \(y_2[n_0-1]=0\) de la ecuación en diferencias. Con esta condición inicial, la salida para \(n\geq n_0\) es
\begin{align*}
y_2[n_0]&=ay_2[n_0-1]+x_2[n_0]=x[0]\\
y_2[n_0+1]&=ay_2[n_0]+x_2[n_0+1]=ax[0]+x[1]\\
&\;\vdots\\
y_2[n_0+m]&=a^{m}x[0]+a^{m-1}x[1]+\cdots+ax[m-1]+x[m],
\end{align*}
es decir,
\[
y_2[n_0+m]=\sum_{k=0}^{m}a^kx[m-k],
\qquad\qquad\textrm{para }m\geq0.
\]
Esto también se puede escribir como
\[
y_2[n]=\sum_{k=0}^{n-n_0}a^kx[n-n_0-k],
\qquad\qquad\textrm{para }n\geq n_0.
\]
resolviendo la recursión puede verificarse además que \(y_2[n]=0\) si \(n<n_0\). Por lo tanto, reemplazando \(n\) por \(n-n_0\) en la ecuación \ref{eq:seq_and_sys_exercise_2_51_ext_output}, se deduce que
\[
y_2[n]=y_1[n-n_0]
\]
para todo \(n_0\). Considerando que \(x_2[n]=x_1[n-n_0]\), se concluye que el sistema es invariante en el tiempo.
\section{Representación de señales y sistemas en el dominio de la frecuencia}\label{sec:seq_and_sys_frequency_domain_representation}
Las secuencias sinusoidales y exponenciales complejas juegan un rol particularmente importante en la representación de señales en tiempo discreto. Esto se debe a que las secuencias exponenciales complejas son funciones propias de los sistemas LTI, y la respuesta de un sistema LTI a una entrada sinusoidal es una secuencia sinusoidal con la misma frecuencia de la entrada pero con amplitud y fase determinadas por el sistema.
\subsection{Funciones propias de los sistemas LTI}
La propiedad de función propia de la exponenciales complejas para los sistemas LTI se obtiene directamente de la definición \ref{eq:seq_and_sys_convolution_definition} de la suma de convolución. Específicamente, si la entrada a un sistema LTI con respuesta al impulso \(h[n]\) es \(x[n]=e^{j\omega n}\) para \(-\infty<n<\infty\), de la ecuación \ref{eq:seq_and_sys_convolution_definition}, la salida es
\begin{align*}
y[n]&=\sum_{k=-\infty}^{\infty}h[k]e^{j\omega(n-k)}\\
&=e^{j\omega n}\sum_{k=-\infty}^{\infty}h[k]e^{-j\omega k}.
\end{align*}
Definiendo a la constante compleja
\begin{equation}\label{eq:seq_and_sys_frequency_response_definition}
H(e^{j\omega})=\sum_{k=-\infty}^{\infty}h[k]e^{-j\omega k},
\end{equation}
la salida es
\begin{equation}\label{eq:seq_and_sys_frequency_response_output}
y[n]=H(e^{j\omega})e^{j\omega n}.
\end{equation}
En consecuencia, \(e^{j\omega n}\) es una función propia del sistema, y valor propio asociado es \(H(e^{j\omega})\). El valor propio \(H(e^{j\omega})\) se llama \emph{respuesta en frecuencia} del sistema y describe el cambio de la magnitud y la fase de la exponencial compleja de entrada en función de la frecuencia.
En la sección \ref{sec:fourier_transform_representation} se verá que un amplio conjunto de señales se puede representar como la combinación lineal de exponenciales complejas como
\begin{equation}\label{eq:seq_and_sys_complex_exponential_linear_combination}
x[n]=\sum_k\alpha_k e^{j\omega_kn}.
\end{equation}
Del principio de superposición, dado por la ecuación \ref{eq:seq_and_sys_sys_properties_superposition}, y la ecuación \ref{eq:seq_and_sys_frequency_response_output}, la correspondiente salida de un sistema LTI es
\[
y[n]=\sum_k\alpha_kH(e^{j\omega_k})e^{j\omega_kn}.
\]
Por lo tanto, si se puede encontrar una representación de la entrada como superposición de secuencias exponenciales complejas, es posible obtener la salida si se conoce la respuesta en frecuencia del sistema para todas las frecuencias \(\omega\).
\paragraph{Ejemplo: respuesta sinusoidal de los sistemas LTI.} Sea la entrada sinusoidal
\[
x[n]=A\cos(\omega_0n+\phi)=\underbrace{\frac{A}{2}e^{j\phi}e^{j\omega_0n}}_{\displaystyle x_1[n]}+\underbrace{\frac{A}{2}e^{-j\phi}e^{-j\omega_0n}}_{\displaystyle x_2[n]}.
\]
De la ecuación \ref{eq:seq_and_sys_frequency_response_output}, la respuesta a \(x_1[n]\) es
\[
y_1[n]=H(e^{j\omega_0})\frac{A}{2}e^{j\phi}e^{j\omega_0n}
\]
y la respuesta a \(x_2[n]\) es
\[
y_2[n]=H(e^{-j\omega_0})\frac{A}{2}e^{-j\phi}e^{-j\omega_0n}.
\]
Por lo tanto, por el principio de superposición, la respuesta total es
\begin{align*}
y[n]&=\frac{A}{2}\left[H(e^{j\omega_0})e^{j\phi}e^{j\omega_0n}+H(e^{-j\omega_0})e^{-j\phi}e^{-j\omega_0n}\right]\\
&\overset{(a)}{=}\frac{A}{2}\left[H(e^{j\omega_0})e^{j\phi}e^{j\omega_0n}+H^*(e^{j\omega_0})e^{-j\phi}e^{-j\omega_0n}\right]\\
&=A\Re\left[H(e^{j\omega_0})e^{j\phi}e^{j\omega_0n}\right],
\end{align*}
donde en \((a)\) se consideró que si la respuesta al impulso \(h[n]\) del sistema es real, se cumple que \(H(e^{-j\omega_0})=H^*(e^{j\omega_0})\). Expresando la respuesta en frecuencia en \(\omega_0\) como
\[
H(e^{j\omega_0})=G_0e^{j\theta_0},
\qquad\qquad\textrm{donde}\qquad\qquad
G_0=|H(e^{j\omega_0})|
\qquad\qquad\textrm{y}\qquad\qquad
\theta_0=\angle H(e^{j\omega_0}),
\]
resulta en que
\begin{equation}\label{eq:seq_and_sys_frequency_response_output_sinusoidal}
y[n]=AG_0\cos(\omega_0n+\phi+\theta_0).
\end{equation}
\begin{figure}[!htb]
\begin{center}
\includegraphics[width=0.90\textwidth]{figuras/seq_and_sys_frequency_response.pdf}
\caption{\label{fig:seq_and_sys_frequency_response} Respuesta en magnitud \(|H(e^{j\omega})|\) y fase \(\angle H(e^{j\omega})\) de un sistema LTI. Se trata de un filtro pasabajos.}
\end{center}
\end{figure}
Si la entrada a un sistema LTI es una secuencia sinusoidal de frecuencia \(\omega_0\) y la respuesta en magnitud y fase del sistema en esa frecuencia es respectivamente \(G_0\) y \(\theta_0\), como se muestra en la figura \ref{fig:seq_and_sys_frequency_response}, la ecuación \ref{eq:seq_and_sys_frequency_response_output_sinusoidal} indica que la salida es una secuencia sinusoidal con la misma frecuencia \(\omega_0\) pero con amplitud alterada un factor \(G_0\) y fase desplazada una cantidad \(\theta_0\) radianes. Este sistema se llama \emph{filtro pasabajos}, ya que deja pasar las bajas frecuencias inalteradas e impide pasar las frecuencias altas.
\begin{figure}[!htb]
\begin{center}
\includegraphics[width=\textwidth]{figuras/seq_and_sys_frequency_response_output_response.pdf}
\caption{\label{fig:seq_and_sys_frequency_response_output_response} Sistema pasabajos LTI. Se especifica la respuesta en magnitud y en fase en las frecuencias \(0.25\), \(0.75\) y \(1.5\) radianes. Observar que la respuesta en fase está \emph{desdoblada} (\emph{unwrapped}).}
\end{center}
\end{figure}
A continuación se ilustra el resultado de la ecuación \ref{eq:seq_and_sys_frequency_response_output_sinusoidal} con un ejemplo numérico. Sea el filtro pasabajos LTI cuya respuesta en frecuencia se muestra en la figura \ref{fig:seq_and_sys_frequency_response_output_response}, y se consideran las entradas
\[
x_i[n]=\sen\omega_in,
\qquad\qquad\textrm{para}\qquad\qquad i=0,\,1,\,2,
\]
donde \(\omega_0=0.25\), \(\omega_1=0.75\) y \(\omega_2=1.5\) radianes.
Según la ecuación \ref{eq:seq_and_sys_frequency_response_output_sinusoidal}, las correspondientes salidas son
\begin{equation}\label{eq:seq_and_sys_frequency_response_output_sinusoidal_zero_phase}
y_i[n]=G_i\sen(\omega_in+\theta_i),
\end{equation}
donde \(G_i\) y \(\theta_i\) son respectivamente la respuesta en magnitud y en fase del sistema en la frecuencia \(\omega_i\), es decir,
\[
G_i=|H(e^{j\omega_i})|
\qquad\qquad\textrm{y}\qquad\qquad
\theta_i=\angle H(e^{j\omega_i}).
\]
En la figura \ref{fig:seq_and_sys_frequency_response_output_response_gain} se muestran las entradas \(x_i[n]\) y las correspondientes salidas \(y_i[n]\). Se observa que, acorde a la ecuación \ref{eq:seq_and_sys_frequency_response_output_sinusoidal_zero_phase}, la salida tiene la misma frecuencia que la entrada, pero con amplitud modificada según la repuesta en magnitud del sistema en la frecuencia \(\omega_i\).
\begin{figure}[!htb]
\begin{center}
\includegraphics[width=\textwidth]{figuras/seq_and_sys_frequency_response_output_response_gain.pdf}
\caption{\label{fig:seq_and_sys_frequency_response_output_response_gain} Ilustración de la respuesta en magnitud de un sistema LTI para una señal sinusoidal. La amplitud de la salida es acorde a la repuesta en magnitud del sistema. La línea continua que interpola las muestras es solo para mejor visualización.}
\end{center}
\end{figure}
Respecto a la fase de la sinusoide de salida, la ecuación \ref{eq:seq_and_sys_frequency_response_output_sinusoidal} indica que a la fase de la entrada se le adiciona la respuesta en fase del sistema en la frecuencia de la sinusoide. La alteración de la fase puede interpretarse como un retardo de la señal. Efectivamente, considerando que la ecuación \ref{eq:seq_and_sys_frequency_response_output_sinusoidal_zero_phase} puede escribirse como
\[
y_i[n]=G_i\sen\left\{\omega_i\left[n-\left(-\dfrac{\theta_i}{\omega_i}\right)\right]\right\},
\]
la sinusoide de salida está retardada una cantidad de \(-\theta_i/\omega_i\) muestras respecto a la sinusoide de entrada. Esto motiva a la definición del \emph{retardo de fase} de un sistema como
\begin{equation}\label{eq:seq_and_sys_phase_delay_definition}
\tau_\phi(\omega)=-\frac{\angle H(e^{j\omega})}{\omega}.
\end{equation}
\begin{figure}[!htb]
\begin{center}
\includegraphics[width=\textwidth]{figuras/seq_and_sys_frequency_response_output_phase_response.pdf}
\caption{\label{fig:seq_and_sys_frequency_response_output_phase_response} Respuesta en fase y retardo de fase del sistema. El retardo de fase se interpreta como la cantidad de muestras que el sistema retarda a una sinusoide de entrada.}
\end{center}
\end{figure}
En la figura \ref{fig:seq_and_sys_frequency_response_output_phase_response} se muestra la respuesta en fase y el retardo de fase para el sistema del ejemplo, y se especifica la fase y el retardo de fase en las frecuencias de las sinusoides de entrada.
\begin{figure}[!htb]
\begin{center}
\includegraphics[width=\textwidth]{figuras/seq_and_sys_frequency_response_output_response_phase.pdf}
\caption{\label{fig:seq_and_sys_frequency_response_output_response_phase} Ilustración del retardo de fase de un sistema. Se interpreta como el retardo en muestras de la señal sinusoidal de tiempo continuo subyacente a la señal sinusoidal de tiempo discreto. Por supuesto que los instantes de muestreo no cambian.}
\end{center}
\end{figure}
En la figura \ref{fig:seq_and_sys_frequency_response_output_response_phase} se muestran las entradas y las salidas y se ilustra la interpretación del retardo de fase. Observar que el retardo de fase, que no necesariamente es un número entero, es el retardo temporal de la sinusoide de tiempo continuo subyacente a la sinusoide en tiempo discreto. En el caso de las señales de entrada de este ejemplo, las señales en tiempo continuo subyacentes son
\[
x_i(t)=\sen\omega_it,
\]
donde las unidades de \(t\) son segundos y en los instantes de muestreo \(t=n\) segundos, y el valor \(\omega_i\) es el mismo que el de la señal en tiempo discreto pero las unidades son radianes/segundo en lugar de radianes o radianes/muestra. En la figura \ref{fig:seq_and_sys_frequency_response_output_response_phase} la señal continua subyacente en cada caso está representada con trazo continuo. La señal equivalente en tiempo continuo de las salidas es
\[
y_i(t)=G_i\sen\left\{\omega_i\left[t-\tau_\phi(\omega_i)\right]\right\},
\]
donde el retardo de fase \(\tau_\phi(\omega_i)\) tiene el mismo valor que en el caso discreto pero las unidades son segundos en lugar de adimensionado o muestras. En el ejemplo de la sección \ref{sec:sampling_continuous_procesing_discrete_signals} se da una interpretación de un retardo no entero.
\paragraph{Ejemplo: respuesta en frecuencia del sistema de media móvil} La respuesta al impulso del sistema de media móvil está dado por la ecuación \ref{eq:seq_and_sys_system_moving_average} es (ver la ecuación \ref{eq:seq_and_sys_system_moving_average_impulse})
\[
h[n]=
\left\{
\begin{array}{ll}
\dfrac{1}{M_1+M_2+1}, & -M_1\leq n\leq M_2,\\
0, & \textrm{en otro caso.}
\end{array}
\right.
\]
Por lo tanto, la respuesta en frecuencia es
\[
H(e^{j\omega})=\frac{1}{M_1+M_2+1}\sum_{n=-M_1}^{M_2}e^{-j\omega n}.
\]
Para el sistema causal, \(M_1=0\) y la respuesta en frecuencia queda
\[
H(e^{j\omega})=\frac{1}{M_2+1}\sum_{n=0}^{M_2}e^{-j\omega n},
\]
y empleando el resultado de la suma de los primeros \(M_2+1\) términos de una serie geométrica, se puede escribir como
\begin{align*}
H(e^{j\omega})&=\frac{1}{M_2+1}\left(\frac{1-e^{-j\omega M_2+1}}{1-e^{-j\omega}}\right)\\
&=\frac{1}{M_2+1}\frac{\left[e^{j\omega(M_2+1)/2}-e^{-j\omega(M_2+1)/2}\right]e^{-j\omega(M_2+1)/2}}{\left(e^{j\omega/2}-e^{-j\omega/2}\right)e^{j\omega/2}}\\
\end{align*}
resultando en
\begin{equation}\label{eq:seq_and_sys_system_moving_average_causal_freq_response}
H(e^{j\omega})=\frac{1}{M_2+1}\,\frac{\sen\left[\omega(M_2+1)/2\right]}{\sen\omega/2}e^{-j\omega M_2/2}.
\end{equation}
La magnitud y la fase de \(H(e^{j\omega})\) para este caso con \(M_2=4\) se muestra en la figura \ref{fig:example_02_16_moving_average_freq_response}.
\begin{figure}[!htb]
\begin{center}
\includegraphics[width=0.98\textwidth]{figuras/example_02_16_moving_average_freq_response.pdf}
\caption{\label{fig:example_02_16_moving_average_freq_response} Magnitud y fase de la respuesta en frecuencia del sistema de media móvil causal con \(M_2=4\).}
\end{center}
\end{figure}
\section{Representación de secuencias mediante transformadas de Fourier}\label{sec:fourier_transform_representation}
Una ventaja de la representación en frecuencias de los sistemas LTI es que a menudo la interpretación del comportamiento del sistema se observa inmediatamente en el dominio de las frecuencias, como es el caso de los filtros selectores de frecuencias. En esta sección se estudia como encontrar representaciones de señales de la forma de la ecuación \ref{eq:seq_and_sys_complex_exponential_linear_combination}.
Muchas secuencias pueden representarse mediante una integral de Fourier como
\begin{equation}\label{eq:seq_and_sys_dtft_inverse_definition}
x[n]=\frac{1}{2\pi}\int_{-\pi}^\pi X(e^{j\omega})e^{j\omega n}\,d\omega,