Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Sinais - e-Sistemas - Alan - V-Oppenheim - Alan - S-Willsky - com - S-Hamid - 2ª-Edicao - pdf, Notas de estudo de Engenharia Elétrica

PDF de qualidade, o mesmo da editora

Tipologia: Notas de estudo

2017
Em oferta
30 Pontos
Discount

Oferta por tempo limitado


Compartilhado em 26/10/2017

marcelo-sales-28
marcelo-sales-28 🇧🇷

5

(7)

1 documento

Pré-visualização parcial do texto

Baixe Sinais - e-Sistemas - Alan - V-Oppenheim - Alan - S-Willsky - com - S-Hamid - 2ª-Edicao - pdf e outras Notas de estudo em PDF para Engenharia Elétrica, somente na Docsity! Alan V. Oppenheim | Alan S. Willsky Com colaboração de S. Hamid Nawab SINAIS e SISTEMAS Pearson Education EMPRESA CIDADÃ © 2010 by Pearson Education do Brasil © 1997, 1983 by Pearson Education, Inc. Tradução autorizada a partir da edição original em inglês, Signals systems, 2a ed. publicada pela Pearson Education, Inc., sob o selo Prentice Hall. Todos os direitos reservados. Nenhuma parte desta publicação poderá ser reproduzida ou transmitida de qualquer modo ou por qualquer outro meio, eletrônico ou mecânico, incluindo fotocópia, gravação ou qualquer outro tipo de sistema de armazenamento e transmissão de informação, sem prévia autorização, por escrito, da Pearson Education do Brasil. Diretor editorial: Roger Trimer Gerente editorial: Sabrina Cairo Supervisor de produção editorial: Marcelo Françozo Editora plena: Thelma Babaoka Editora assistente: Sirlene Barbosa Preparação: Renata Gonçalves Revisão: Maria Alice Costa e Norma Gusukuma Capa: Alexandre Mieda Diagramação: Globaltec Artes Gráficas Ltda. 2010 Direitos exclusivos para a língua portuguesa cedidos à Pearson Education do Brasil Ltda., uma empresa do grupo Pearson Education Rua Nelson Francisco, 26 – Limão CEP: 02712-100 – São Paulo – SP Tel.: (11) 2178-8686 – Fax: (11) 2178-8688 e-mail: vendas@pearsoned.com Dados Internacionais de Catalogação na Publicação (CIP) (Câmara Brasileira do Livro, SP, Brasil) Oppenheim, Alan V. Sinais e sistemas / Alan V. Oppenheim, Alan S. Willsky com S. Hamid Nawab ; tradução Daniel Vieira ; revisão técnica Marcio Eisencraft; Maria D. Miranda. -- São Paulo : Pearson Prentice Hall, 2010. Título original: Signals & systems. 2. ed. americana. Bibliografia. ISBN 978-85-4301-380-0 1. Análise de sistemas 2. Teoria de sinais (Telecomunicação) I. Willsky, Alan S. II. Nawab, S. Hamid. III. Título. 09-10002 CDD-621.38223 Índices para catálogo sistemático: 1. Sinais e sistemas : Tecnologia 621.38223 ireit s cl si l rs i r s Rua Nelson Francisco, 26 CEP 02712-100 – São Paulo – SP – Brasil Fone: ( ) -8686 – Fax: (11) 2178-8688 vendas@pearson.com Para Phyllis, Jason e Justine Para Susana, Lydia e Kate Sumário ix 4.3 Propriedades da transformada de Fourier de tempo contínuo 174 4.3.1 Linearidade 175 4.3.2 Deslocamento no tempo 175 4.3.3 Conjugação e simetria conjugada 176 4.3.4 Diferenciação e integração 177 4.3.5 Mudança de escala no tempo e na frequência 178 4.3.6 Dualidade 179 4.3.7 Relação de Parseval 180 4.4 A propriedade da convolução 181 4.4.1 Exemplos 183 4.5 A propriedade da multiplicação 186 4.5.1 Filtragem seletiva em frequência com frequência central variável 188 4.6 Tabelas de propriedades de Fourier e de pares básicos da transformada de Fourier 189 4.7 Sistemas caracterizados por equações diferenciais lineares com coeficientes constantes 192 4.8 Resumo 193 5 A transformada de Fourier de tempo discreto 207 5.0 Introdução 207 5.1 Representação de sinais aperiódicos: a transformada de Fourier de tempo discreto 207 5.1.1 Dedução da transformada de Fourier de tempo discreto 207 5.1.2 Exemplos de transformadas de Fourier de tempo discreto 209 5.1.3 Considerações sobre a convergência associada da transformada de Fourier de tempo discreto 212 5.2 Transformada de Fourier para sinais periódicos 212 5.3 Propriedades da transformada de Fourier de tempo discreto 215 5.3.1 Periodicidade da transformada de Fourier de tempo discreto 216 5.3.2 Linearidade da transformada de Fourier 216 5.3.3 Deslocamento no tempo e deslocamento na frequência 216 5.3.4 Conjugação e simetria conjugada 217 5.3.5 Diferenciação e acumulação 217 5.3.6 Reflexão no tempo 218 5.3.7 Expansão no tempo 218 5.3.8 Diferenciação na frequência 220 5.3.9 Relação de Parseval 220 5.4 A propriedade da convolução 221 5.4.1 Exemplos 221 5.5 A propriedade da multiplicação 224 5.6 Tabelas de propriedades da transformada de Fourier e pares básicos da transformada de Fourier 224 5.7 Dualidade 227 5.7.1 Dualidade na série de Fourier de tempo discreto 227 5.7.2 Dualidade entre a transformada de Fourier de tempo discreto e a série de Fourier de tempo contínuo 228 5.8 Sistemas caracterizados por equações de diferenças lineares com coeficientes constantes 229 5.9 Resumo 231 6 Caracterização no tempo e na frequência dos sinais e sistemas 245 6.0 Introdução 245 6.1 A representação magnitude-fase da transformada de Fourier 245 6.2 A representação magnitude-fase da resposta em frequência dos sistemas LIT 248 6.2.1 Fase linear e não linear 249 6.2.2 Atraso de grupo 250 6.2.3 Gráficos do logaritmo da magnitude e diagramas de Bode 255 6.3 Propriedades no domínio do tempo dos filtros seletivos em frequência ideais 256 6.4 Aspectos no domínio da frequência e no domínio do tempo dos filtros não ideais 258 6.5 Sistemas de primeira ordem e de segunda ordem de tempo contínuo 262 6.5.1 Sistemas de primeira ordem de tempo contínuo 262 6.5.2 Sistemas de segunda ordem de tempo contínuo 265 6.5.3 Diagramas de Bode para respostas em frequência racionais 268 x Sinais e sistemas 6.6 Sistemas de primeira ordem e de segunda ordem de tempo discreto 270 6.6.1 Sistemas de primeira ordem de tempo discreto 271 6.6.2 Sistemas de segunda ordem de tempo discreto 272 6.7 Exemplos de análise de sistemas no domínio do tempo e da frequência 280 6.7.1 Análise de um sistema de suspensão de automóveis 280 6.7.2 Exemplos de filtros não recursivos de tempo discreto 282 6.8 Resumo 287 7 Amostragem 305 7.0 Introdução 305 7.1 Representação de um sinal de tempo contínuo por suas amostras: o teorema da amostragem 305 7.1.1 Amostragem com trem de impulsos 306 7.1.2 Amostragem com um retentor de ordem zero 307 7.2 Reconstrução de um sinal a partir de suas amostras usando interpolação 309 7.3 O efeito da subamostragem: aliasing 311 7.4 Processamento em tempo discreto de sinais de tempo contínuo 316 7.4.1 Diferenciador digital 321 7.4.2 Atraso de meia amostra 322 7.5 Amostragem de sinais de tempo discreto 324 7.5.1 Amostragem com trem de impulsos 324 7.5.2 Dizimação e interpolação de tempo discreto 325 7.6 Resumo 329 8 Sistemas de comunicação 345 8.0 Introdução 345 8.1 Modulação em amplitude senoidal e exponencial complexa 346 8.1.1 Modulação em amplitude com uma portadora exponencial complexa 346 8.1.2 Modulação em amplitude com uma portadora senoidal 347 8.2 Demodulação para AM senoidal 348 8.2.1 Demodulação síncrona 348 8.2.2 Demodulação assíncrona 350 8.3 Multiplexação por divisão de frequência 353 8.4 Modulação em amplitude senoidal de banda lateral única 356 8.5 Modulação em amplitude com uma portadora trem de pulsos 358 8.5.1 Modulação de uma portadora trem de pulsos 358 8.5.2 Multiplexação por divisão de tempo 360 8.6 Modulação por amplitude de pulso 360 8.6.1 Sinais modulados por amplitude de pulso 360 8.6.2 Interferência intersimbólica em sistemas PAM 361 8.6.3 Modulação digital por amplitude de pulso e por código de pulso 364 8.7 Modulação em frequência senoidal 364 8.7.1 Modulação em frequência de banda estreita 366 8.7.2 Modulação em frequência de banda larga 367 8.7.3 Sinal modulante onda quadrada periódica 369 8.8 Modulação de tempo discreto 370 8.8.1 Modulação em amplitude senoidal de tempo discreto 370 8.8.2 Transmodulação de tempo discreto 372 8.9 Resumo 373 9 A transformada de Laplace 391 9.0 Introdução 391 9.1 A transformada de Laplace 391 9.2 A região de convergência para transformada de Laplace 395 9.3 A transformada inversa de Laplace 400 9.4 Cálculo geométrico da transformada de Fourier a partir do diagrama de polos e zeros 402 9.4.1 Sistemas de primeira ordem 403 9.4.2 Sistemas de segunda ordem 404 9.4.3 Sistemas passa-tudo 407 9.5 Propriedades da transformada de Laplace 408 9.5.1 Linearidade da transformada de Laplace 408 Sumário xi 9.5.2 Deslocamento no tempo 408 9.5.3 Deslocamento no domínio s 409 9.5.4 Mudança de escala no tempo 409 9.5.5 Conjugação 410 9.5.6 Propriedade de convolução 410 9.5.7 Diferenciação no domínio do tempo 410 9.5.8 Diferenciação no domínio s 411 9.5.9 Integração no domínio do tempo 411 9.5.10 Os teoremas dos valores inicial e final 412 9.5.11 Tabela de propriedades 412 9.6 Alguns pares da transformada de Laplace 412 9.7 Análise e caracterização de sistemas LIT usando a transformada de Laplace 412 9.7.1 Causalidade 413 9.7.2 Estabilidade 415 9.7.3 Sistemas LIT caracterizados por equações diferenciais lineares com coeficientes constantes 417 9.7.4 Exemplos relacionando o comportamento do sistema à função de sistema 418 9.7.5 Filtros Butterworth 420 9.8 Álgebra da função de sistema e representações em diagrama de blocos 422 9.8.1 Funções de sistema para interconexões de sistemas LIT 422 9.8.2 Representações por diagrama de blocos para sistemas LIT causais descritos por equações diferenciais e funções de sistema racionais 422 9.9 A transformada de Laplace unilateral 426 9.9.1 Exemplos de transformadas de Laplace unilateral 426 9.9.2 Propriedades da transformada de Laplace unilateral 427 9.9.3 Resolvendo equações diferenciais usando a transformada de Laplace unilateral 429 9.10 Resumo 430 10 A transformada z 442 10.0 Introdução 442 10.1 A transformada z 442 10.2 A região de convergência para a transformada z 446 10.3 A transformada z inversa 451 10.4 Cálculo geométrico da transformada de Fourier a partir do diagrama de polos e zeros 454 10.4.1 Sistemas de primeira ordem 455 10.4.2 Sistemas de segunda ordem 455 10.5 Propriedades da transformada z 457 10.5.1 Linearidade 457 10.5.2 Deslocamento no tempo 458 10.5.3 Mudança de escala no domínio z 458 10.5.4 Reflexão no tempo 459 10.5.5 Expansão do tempo 459 10.5.6 Conjugação 459 10.5.7 A propriedade da convolução 459 10.5.8 Diferenciação no domínio z 460 10.5.9 O teorema do valor inicial 461 10.5.10 Resumo das propriedades 462 10.6 Alguns pares comuns da transformada z 462 10.7 Análise e caracterização de sistemas LIT usando transformadas z 462 10.7.1 Causalidade 463 10.7.2 Estabilidade 463 10.7.3 Sistemas LIT caracterizados por equações de diferenças lineares com coeficientes constantes 465 10.7.4 Exemplos relacionando o comportamento do sistema à função de sistema 466 10.8 Álgebra da função de sistema e representações em diagrama de blocos 467 10.8.1 Funções de sistema de interconexões de sistemas LIT 467 10.8.2 Representações em diagrama de blocos para sistemas LIT causais descritos por equações de diferenças e funções de sistema racionais 467 10.9 A transformada z unilateral 470 10.9.1 Exemplos de transformadas z unilaterais e transformadas inversas 471 10.9.2 Propriedades da transformada z unilateral 472 10.9.3 Resolvendo equações de diferenças usando a transformada z unilateral 474 10.10 Resumo 475 xiv Sinais e sistemas tópico tão importante. Além disso, novamente, incluímos uma bibliografia atualizada ao final do livro, para auxi- liar o aluno que estiver interessado em buscar estudos adicionais e mais avançados dos métodos e aplicações da análise de sinais e sistemas. A organização do livro reflete nossa convicção de que o domínio completo de um assunto dessa natureza não pode ser obtido sem uma quantidade significativa de prática no uso e na aplicação das ferramentas que são desenvolvidas. Consequentemente, na segunda edi- ção aumentamos de forma significativa a quantidade de exemplos práticos em cada capítulo. Também ampliamos um dos principais aspectos da primeira edição, os problemas do final de capítulo. Como na primeira edição foi incluído uma quantidade substancial de problemas, totalizando mais de 600. A maioria dos problemas incluídos aqui é nova e, portanto, eles oferecem flexibilidade adicional para o professor na preparação de trabalhos de casa. Além disso, para melhorar a utilidade dos problemas para o aluno e o professor, fizemos diversas mudanças na organização e na apresentação dos problemas. Particularmente, organi- zamos os problemas em cada capítulo sob vários títulos es- pecíficos, cada um cobrindo o material do capítulo inteiro, mas com um objetivo diferente. As duas primeiras seções dos problemas em cada capítulo enfatizam a mecânica do uso dos conceitos e métodos básicos apresentados. Para a primeira dessas duas seções, que tem o título Problemas básicos com respostas, também fornecemos respostas (mas não soluções) ao final do livro. Essas respostas oferecem um modo simples e imediato para o aluno verificar seu conhecimento do assunto. Os problemas na primeira seção geralmente são apropriados para a inclusão em lição de casa. Além do mais, para dar ao professor flexibilidade adi- cional para determinar as lições de casa, oferecemos uma segunda seção de Problemas básicos, para os quais as res- postas não foram incluídas. Uma terceira seção de problemas em cada capítulo, organizada sob o título de Problemas avançados, é orien- tada à exploração e à elaboração a partir das bases e im- plicações práticas do material no texto. Esses problemas frequentemente envolvem deduções matemáticas e o uso mais sofisticado dos conceitos e dos métodos apresenta- dos no capítulo. Alguns capítulos também incluem uma seção de Problemas de extensão que envolvem extensões do material presente no capítulo e/ou envolve o uso do conhecimento de aplicações que está fora do escopo do texto principal (como sistemas mecânicos ou circuitos avançados). Esperamos que a variedade e a quantidade geral de problemas em cada capítulo ofereçam aos alunos meios para desenvolver seu conhecimento do material e aos professores, a flexibilidade considerável na mon- tagem de trabalhos de casa, adequados às necessidades específicas de seus alunos. Também está disponível para os professores, via editora, um manual de soluções. Um outro reforço adicional significativo a esta se- gunda edição é a disponibilização do livro auxiliar LIT Exploration in signals and systems using MATLAB, de Buck, Daniel e Singer. Este livro contém exercícios computacio- nais baseados em MATLAB® para cada tópico do texto e deve ser de grande valor para professores e alunos.1 Os estudantes que usarem este livro devem ter um conhecimento básico de cálculo, além de alguma expe- riência na manipulação de números complexos e algum contato com equações diferenciais. Com essa base, o livro é autocontido. Especificamente, não se presume qual- quer experiência anterior com análise de sistemas, con- volução, análise de Fourier ou transformadas de Laplace e z. Antes de aprender o assunto de sinais e sistemas, a maioria dos estudantes já terá feito algum curso sobre teoria básica de circuitos para engenheiros elétricos ou fundamentos de dinâmica para engenheiros mecânicos. Esses assuntos relacionam-se a algumas das ideias básicas que são desenvolvidas de maneira mais completa neste texto. Esse conhecimento prévio certamente poderá ser de grande valor para que os alunos adquiram uma pers- pectiva adicional enquanto utilizam o livro. O Prólogo, que vem após este prefácio, foi escrito para oferecer ao leitor motivação e perspectiva para o as- sunto de sinais e sistemas em geral, bem como apresentar nossa abordagem do assunto em particular. Começamos o Capítulo 1 introduzindo algumas das ideias elementa- res relacionadas à representação matemática de sinais e sistemas. Discutimos transformações (como deslocamen- tos de tempo e mudança de escala) da variável indepen- dente de um sinal. Também apresentamos alguns dos sinais mais importantes e básicos de tempo contínuo e de tempo discreto, as exponenciais reais e complexas e o degrau unitário e o impulso unitário de tempo contínuo e de tempo discreto. Esse capítulo também introduz as representações em diagrama de blocos das interconexões de sistemas e discute diversas propriedades básicas de siste- mas, como causalidade, linearidade e invariância no tempo. No Capítulo 2, usamos como base essas duas últimas pro- priedades, juntamente com a propriedade de amostragem dos impulsos unitários para desenvolver a representação por soma da convolução para sistemas lineares, invarian- tes no tempo (LIT) de tempo discreto e a representação por integral de convolução para os sistemas LIT de tem- po contínuo. Nesse tratamento, usamos a intuição obti- 1 Essa obra não estará presente nesta edição (N.E.). Prefácio xv da do nosso desenvolvimento do caso de tempo discreto como um auxílio na dedução e compreen são de seu cor- respondente de tempo contínuo. Depois, passamos para uma discussão de sistemas LIT causais, caracterizados por equações diferenciais e de diferenças. Nessa discussão in- trodutória, revemos as ideias básicas envolvidas na solu- ção de equações diferenciais lineares (que a maioria dos alunos já tiveram anteriormente) e também oferecemos uma discussão acerca de métodos análogos para as equa- ções de diferenças lineares. Contudo, o foco principal do nosso desenvolvimento nesse capítulo não está nos mé- todos de solução, pois as abordagens mais convenientes são desenvolvidas posteriormente, usando métodos de transformada. Em vez disso, nessa primeira visão, nossa intenção é oferecer ao aluno alguma apreciação dessas classes de sistemas extremamente importantes, que serão encontradas com frequência nos capítulos seguintes. Por último, o Capítulo 2 conclui com uma breve discussão sobre as funções de singularidade — degraus, impulsos, doublets e assim por diante — no contexto do seu papel na descrição e análise dos sistemas LIT de tempo contínuo. Em particular, enfatizamos a interpretação desses sinais em termos de como eles são definidos sob convolução — ou seja, em termos das respostas de sistemas LIT a esses sinais idealizados. Os capítulos 3 a 6 apresentam um desenvolvimento completo e autocontido dos métodos de análise de Fourier em tempo contínuo e em tempo discreto e, juntos, repre- sentam a reorganização e revisão mais significativas desta edição. Conforme indicamos anteriormente, introduzimos o conceito da filtragem no domínio de frequência muito mais cedo no desenvolvimento, a fim de fornecer motiva- ção e uma aplicação concreta dos métodos de Fourier a se- rem desenvolvidos. Como na primeira edição, iniciamos as discussões no Capítulo 3 enfatizando e ilustrando os dois motivos fundamentais para o importante papel que a aná- lise de Fourier desempenha no estudo de sinais e sistemas em tempo contínuo e em tempo discreto: (1) classes de si- nais extremamente amplas podem ser representadas como somas ponderadas ou integrais de exponenciais complexas; e (2) a resposta de um sistema LIT a uma entrada exponen- cial complexa é a mesma exponencial multiplicada por um número complexo característico do sistema. No entanto, em contraste com a primeira edição, o foco de atenção no Capítulo 3 está nas representações da série de Fourier para sinais periódicos em tempo contínuo e em tempo discreto. Dessa maneira, não apenas apresentamos e examinamos muitas das propriedades das representações de Fourier sem a generalização matemática adicional exigida para obter a transformada de Fourier para sinais aperiódicos, mas também podemos apresentar a aplicação na filtragem em um estágio muito mais cedo no desenvolvimento. Em particular, tirando proveito do fato de que as exponenciais complexas são autofunções dos sistemas LIT, introduzimos a resposta em frequência de um sistema LIT e a utilizamos para discutir o conceito de filtragem seletiva em frequên- cia, para introduzir filtros ideais e oferecer vários exemplos de filtros não ideais descritos por equações diferenciais e de diferenças. Desse modo, com um mínimo de preliminares matemáticas, oferecemos ao aluno uma apreciação mais profunda do que significa uma representação de Fourier e por que ela é tão útil. Os capítulos 4 e 5, então, baseiam-se nos funda- mentos do Capítulo 3 enquanto desenvolvemos primeiro a transformada de Fourier de tempo contínuo no Capí- tulo 4 e, de modo paralelo, a transformada de Fourier de tempo discreto no Capítulo 5. Nos dois capítulos, dedu- zimos a representação da transformada de Fourier de um sinal aperiódico como o limite da série de Fourier para um sinal cujo período se torna arbitrariamente gran- de. Esse ponto de vista enfatiza a relação próxima en- tre séries e transformadas de Fourier, que desenvolve- mos com mais detalhes nas seções seguintes e que nos permite transferir a intuição desenvolvida para as séries de Fourier no Capítulo 3 para o contexto mais geral das transformadas de Fourier. Nos dois capítulos, incluímos uma discussão das muitas propriedades importantes das transformadas de Fourier, com ênfase especial imposta sobre as propriedades de convolução e multiplicação. Em particular, a propriedade de convolução permite-nos dar uma segunda abordagem no assunto de filtragem seletiva em frequência, ao passo que a propriedade de multiplica- ção serve como ponto de partida para nosso tratamento de amostragem e modulação, nos capítulos seguintes. Por fim, nas últimas seções dos capítulos 4 e 5, usamos mé- todos de transformada para determinar as respostas em frequência dos sistemas LIT descritos por equações dife- renciais e de diferenças e para fornecer vários exemplos ilustrativos de como as transformadas de Fourier podem ser usadas para calcular as respostas para tais sistemas. Suplementando essas discussões (e os tratamentos pos- teriores das transformadas de Laplace e z), incluímos um Apêndice no final do livro que inclui uma descrição do método de expansão em frações parciais. Nosso tratamento da análise de Fourier nesses dois capítulos é característica do tratamento paralelo que de- senvolvemos. Especificamente, em nossa discussão no Capítulo 5, podemos ampliar grande parte das ideias de- xvi Sinais e sistemas senvolvidas no Capítulo 4 para o caso de tempo contínuo e, mais para o final do Capítulo 5, enfatizamos a duali- dade completa nas representações de Fourier em tempo contínuo e em tempo discreto. Além disso, focalizamos melhor a natureza especial de cada domínio, comparan- do as diferenças entre a análise de Fourier de tempo con- tínuo e de tempo discreto. Conforme notarão os familiarizados com a primei- ra edição, os tamanhos e os escopos dos capítulos 4 e 5 nesta edição são consideravelmente menores que seus correspondentes na edição anterior. Isso se deve não apenas ao fato de que as séries de Fourier agora são tratadas em um capítulo separado, mas também à passagem de vários tópicos para o Capítulo 6. O resul- tado, acreditamos, tem vários benefícios significativos. Primeiro, a apresentação em três capítulos mais curtos dos conceitos básicos e resultados da análise de Fourier, com a introdução do conceito de filtragem seletiva em frequên cia, deve ajudar o aluno na organização do seu entendimento desse material e no desenvolvimento da intuição sobre o domínio de frequência e apreciação de suas aplicações potenciais. Depois, com os capítulos 3 a 5 como base, podemos nos empenhar em uma visão mais detalhada de diversos tópicos e aplicações importantes. No Capítulo 6, examinamos mais profundamente as características no domínio do tempo e frequência dos sistemas LIT. Por exemplo, apresentamos as representa- ções de magnitude-fase e gráfico de Bode para respostas em frequência e discutimos o efeito da fase de resposta em frequência sobre as características no domínio do tempo da saída de um sistema LIT. Além disso, examinamos o comportamento no domínio do tempo e frequência dos filtros ideais e não ideais e os compromissos entre estes, que precisam ser analisados na prática. Também exami- namos cuidadosamente os sistemas de primeira e segun- da ordens e seus papéis como blocos de montagem bási- cos para síntese e análise de sistema mais complexas em tempo contínuo e em tempo discreto. Por fim, discuti- mos vários outros exemplos mais complexos de filtros em tempo contínuo e em tempo discreto. Esses exemplos, juntamente com os vários outros aspectos da filtragem, explorados nos problemas ao final do capítulo, oferecem ao aluno uma apreciação da riqueza e forma desse impor- tante assunto. Embora cada um dos tópicos do Capítulo 6 estivesse presente na primeira edição, acreditamos que, reorganizando-os e coletando-os em um capítulo separa- do, após o desenvolvimento básico da análise de Fourier, simplificamos a introdução desse assunto importante nos capítulo 3 a 5 e apresentamos no Capítulo 6 uma imagem consideravelmente mais coesa das questões de domínio de tempo e frequência. Em resposta a sugetões e preferências expressas por muitos leitores da primeira edição, modificamos a nota- ção na discussão das transformadas de Fourier para que seja mais consistente com a notação mais utilizada para as transformadas de Fourier de tempo contínuo e de tem- po discreto. Especificamente, a partir do Capítulo 3, agora indicamos a transformada de Fourier de tempo contínuo como X(jω) e a transformada de Fourier de tempo discre- to como X(ejω). Assim como com todas as opções de nota- ção, não existe uma única melhor escolha para a notação das transformadas de Fourier. Nosso tratamento da amostragem no Capítulo 7 preo cupa-se principalmente com o teorema da amostra- gem e suas implicações. Entretanto, para termos um pa- norama desse assunto, começamos discutindo os conceitos gerais da representação de um sinal de tempo contínuo em termos de suas amostras e a reconstrução de sinais usando a interpolação. Após usar os métodos no domínio da frequên cia para deduzir o teorema da amostragem, consideramos os domínios da frequência e do tempo para fornecer intuição com relação ao fenômeno de alia- sing resultante da subamostragem. Um dos usos muito importantes da amostragem consiste no processamento em tempo discreto dos sinais de tempo contínuo, um tó- pico que exploramos com mais detalhes nesse capítulo. Depois disso, passamos para a amostragem de sinais em tempo discreto. O resultado básico por trás da amostra- gem em tempo discreto é desenvolvido de maneira que corresponda ao que é usado em tempo contínuo, e as aplicações desse resultado aos problemas de dizimação e interpolação são descritas no capítulo. Novamente, várias outras aplicações, tanto em tempo contínuo quanto em tempo discreto, são tratadas nos problemas. Mais uma vez, o leitor acostumado com nossa pri- meira edição notará uma mudança, nesse caso envol- vendo a troca de apresentação entre amostragem e co- municações. Decidimos colocar a amostragem antes das comunicações na segunda edição, tanto porque podemos apelar para a intuição simples para motivar e descrever os processos de amostragem e reconstrução a partir de amostras, quanto porque essa ordem de apresentação per- mite-nos, no Capítulo 8, explicar mais facilmente as formas de sistemas de comunicação que são estreitamente relacio- nadas à amostragem ou contar fundamentalmente com o uso de uma versão amostrada do sinal a ser transmitido. Nossa abordagem de comunicações no Capítulo 8 inclui uma discussão detalhada da amplitude modula- Na produção desta edição, tivemos a felicidade de receber assistência de muitos colegas, alunos e amigos, que foram extremamente generosos com seu tempo. Ex- pressamos nosso profundo reconhecimento a: Jon Maiara e Ashok Popat, por sua ajuda na cria- ção de muitas das figuras e imagens. Babak Ayazifar e Austin Frakt, por sua ajuda na atualização e montagem da bibliografia. Ramamurthy Mani, por preparar o manual de so- luções para o texto e por sua ajuda na criação de muitas das figuras. Michael Daniel, pela coordenação e gerenciamen- to dos arquivos em LaTeX à medida que os vários rascu- nhos desta edição eram produzidos e modificados. John Buck, por sua leitura atenta do rascunho in- teiro desta obra. Robert Becker, Sally Bemus, Maggie Beucler, Ben Halpern, Jon Maira, Chirag Patel e Jerry Weins- tein, por seus esforços na produção dos diversos rascu- nhos deste livro em LaTeX. E a todos os que ajudaram na revisão cuidadosa das provas de página: Agradecimentos Sean Lindsay Jeffrey T. Ludwig Seth Pappas Adrienne Prahler Ryan Riddolls Alan Seefeldt Sekhar Tatikonda Shawn Verbout Kathleen Wage Alex Wang Joseph Winograd Babak Ayazifar Richard Barron Rebecca Bates George Bevis Sarit Birzon Nabil Bitar Nirav Dagli Anne Findlay Austin Frakt Siddhartha Gupta Christoforos Hadjicostis Terrence Ho Mark Ibanez Seema Jaggi Patrick Kreidl Christina Lamarre Nicholas Laneman Li Lee Agradecimentos da editora sobre a edição brasileira Agradecemos a todos os profissionais que trabalha- ram na produção desta edição de Sinais e sistemas, em es- pecial aos revisores técnicos, a professora doutora Maria D. Miranda, do Departamento de Telecomunicações e Controle da Escola Politécnica da Universidade de São Paulo e ao professor doutor Marcio Eisencraft, do Centro de Engenharia, Modelagem e Ciências Sociais Aplicadas da Universidade Federal do ABC, pela atenção, pelo cui- dado com a revisão e, principalmente, pela preocupação em manter a obra fiel à edição original. Agradecemos também aos demais professores que colaboraram com a avaliação desta edição, auxiliando-nos a manter a qualidade do livro: Newton Maruyama Renato da Rocha Lopes José Carlos de Souza Jr. Eduardo Lobo Lustosa Cabral Ivan R. S. Casella José Carlos Teixeira de Barrros Moraes Eduardo de Azevedo Botler Marco Antonio A. Melo Magda A. S. Duro Os conceitos de sinais e sistemas surgem em diver- sos campos, e as ideias e técnicas associadas a esses con- ceitos desempenham um papel importante em áreas di- versificadas da ciência e tecnologia, como comunicações, aeronáutica e astronáutica, projeto de circuitos, acústica, sismologia, engenharia biomédica, sistemas de geração e distribuição de energia, controle de processos químicos e processamento de voz. Embora a natureza física dos si- nais e sistemas que surgem nessas várias especialidades possa ser drasticamente diferente, todos eles possuem duas características muito básicas em comum. Os sinais, que são funções de uma ou mais variáveis independentes, contêm informações sobre o comportamento ou natureza de algum fenômeno, enquanto os sistemas respondem a sinais em particular, produzindo outros sinais ou algum comportamento desejado. Tensões e correntes como uma função do tempo em um circuito elétrico são exemplos de sinais, e um circuito por si só é um exemplo de um sistema, que, nesse caso, responde a tensões e correntes aplicadas. Como outro exemplo, quando um motorista de automóvel pressiona o pedal do acelerador, o veículo responde aumentando a velocidade. Nesse caso, o sistema é o automóvel, a pressão sobre o pedal do acelerador é a entrada do sistema e a velocidade do veículo é a resposta. Um programa de computador para o diagnóstico auto- matizado de eletrocardiogramas pode ser visto como um sistema que tem como sua entrada um eletrocardiogra- ma digitalizado e que produz estimativas de parâmetros, como a frequência cardíaca, como saídas. Uma câmera é um sistema que recebe luz de diversas fontes, inclusive refletidas de objetos, e produz uma fotografia. Um braço de robô é um sistema cujos movimentos são a resposta a entradas de controle. Nos muitos contextos em que surgem sinais e sis- temas, existem diversos problemas e questões importan- tes. Em alguns casos, somos apresentados a um sistema Prólogo específico e estamos interessados em caracterizá-lo em detalhes para entender como ele responderá a várias en- tradas. Exemplos incluem a análise de um circuito a fim de quantificar sua resposta a diferentes fontes de tensão e corrente; e a determinação das características de resposta de uma aeronave tanto aos comandos do piloto quanto às rajadas de vento. Em outros problemas de análise de sinais e sistemas, em vez de analisar os sistemas existentes, nosso interesse pode estar focalizado no projeto de sistemas para proces- sar sinais de maneiras particulares. Um contexto muito comum em que esses problemas surgem é no projeto de sistemas para melhorar ou restaurar sinais que foram de- gradados de alguma maneira. Por exemplo, quando um piloto está se comunicando com uma torre de controle de tráfego aéreo, a comunicação pode ser degradada pelo alto nível de ruído de fundo na cabine. Neste e em mui- tos casos semelhantes, é possível projetar sistemas que retenham o sinal desejado — nesse caso, a voz do pilo- to — e rejeitem (pelo menos, aproximadamente) o sinal indesejado, ou seja, o ruído. Um conjunto de objetivos semelhante também pode ser encontrado na área geral de restauração e melhoria de imagens. Por exemplo, as imagens de sondas espaciais ou de satélites de observação da Terra tipicamente representam versões degradadas das cenas apresentadas, devido a limitações do equipamen- to de imagem, efeitos atmosféricos e erros na transmissão de sinais no retorno das imagens à Terra. Consequen- temente, as imagens retornadas do espaço costumam ser processadas por sistemas para compensar algumas dessas degradações. Além disso, tais imagens usualmen- te são processadas para melhorar certas características, como linhas (correspondentes, por exemplo, a leitos de rio ou falhas geológicas) ou limites de regiões em que existem contrastes nítidos na cor ou no brilho. Prólogo xxi Além da melhoria e restauração, em muitas apli- cações há a necessidade de projetar sistemas para ex- trair informações específicas dos sinais. A estimativa da frequên cia cardíaca a partir de um eletrocardiograma é um exemplo. Outro exemplo está na projeção econômica. Podemos, por exemplo, querer analisar o histórico de uma série temporal econômica, como um conjunto de médias de ações, para estimar tendências e outras características, como variações sazonais, que podem ser úteis para fazer previsões sobre o comportamento futuro. Em outras apli- cações, o foco pode estar no projeto de sinais com pro- priedades particulares. Especificamente, em aplicações de comunicações, há uma atenção considerável no projeto de sinais de modo a atender às restrições e aos requisitos para a transmissão bem-sucedida. Por exemplo, a comu- nicação por longa distância através da atmosfera requer o uso de sinais com frequências em determinada parte do espectro eletromagnético. O projeto de sinais de comuni- cação também deve levar em consideração a necessidade de recepção confiável na presença tanto de distorção de- vido à transmissão pela atmosfera quanto de interferência de outros sinais sendo transmitidos simultaneamente por outros usuários. Outra classe de aplicações muito importante, em que aparecem os conceitos e as técnicas de análise de sinais e sistemas, são aquelas aplicações em que queremos modi- ficar ou controlar as características de determinado siste- ma, talvez pela escolha de sinais de entrada específicos ou pela combinação do sistema com outros sistemas. Como ilustração desse tipo de aplicação tem-se o projeto de sis- temas de controle para regular plantas de processamento químico. As plantas desse tipo são equipadas com diver- sos sensores, que medem sinais físicos como temperatu- ra, umidade e composição química. O sistema de controle em tal planta responde aos sinais dos sensores ajustando quantidades como taxas de fluxo e temperatura, a fim de regular o processo químico em andamento. O projeto de pilotos automáticos de aeronaves e sistemas de con- trole por computador representa outro exemplo. Nesse caso, os sinais medindo velocidade da aeronave, altitude e direção são usados pelo sistema de controle da aerona- ve para ajustar as variáveis como a aceleração e a posição do leme de direção e dos ailerons. Esses ajustes são feitos para garantir que a aeronave siga um curso especifica- do, para suavizar a viagem da aeronave e para melhorar a capacidade de resposta aos comandos do piloto. Nes- se caso e no exemplo anterior de controle de processo químico, um conceito importante, conhecido como rea- limentação, desempenha um papel fundamental, pois os sinais medidos são realimentados e usados para ajustar as características de resposta de um sistema. Os exemplos citados nos parágrafos anteriores represen- tam apenas algumas de uma variedade extraordinariamente grande de aplicações para os conceitos de sinais e sistemas. A importância desses conceitos vem não apenas da diver- sidade de fenômenos e processos em que eles surgem, mas também de um acervo de ideias, técnicas analíticas e meto- dologias que existem e estão sendo desenvolvidas e usadas para solucionar problemas envolvendo sinais e sistemas. A história desse desenvolvimento remete a muitos séculos, e apesar de a maior parte desse trabalho ter sido motivada por aplicações específicas, muitas dessas ideias provaram ter importância essencial para problemas em uma varie- dade muito maior de contextos do que aqueles para os quais foram intencionadas originalmente. Por exemplo, as ferramentas de análise de Fourier, que formam a base para a análise de domínio de frequência de sinais e sis- temas e que desenvolveremos em detalhes neste livro foram estudados desde os problemas de astronomia ana- lisados pelos antigos babilônios até o desenvolvimento da física matemática nos séculos XVIII e XIX. Em alguns dos exemplos que mencionamos, os si- nais variam continuamente no tempo, enquanto em ou- tros, sua evolução é descrita apenas em instantes discretos no tempo. Por exemplo, na análise de circuitos elétricos e sistemas mecânicos, preocupamo-nos com sinais que variam continuamente. Por outro lado, a média de fecha- mento diário no mercado de ações é, por sua própria na- tureza, um sinal que evolui em pontos discretos no tem- po (ou seja, no fechamento de cada dia). Em vez de uma curva como uma função de uma variável contínua, en- tão, a média de fechamento do mercado de ações é uma sequência de números associados a instantes de tempo discretos em que ela é especificada. Essa distinção na descrição básica da evolução dos sinais e dos sistemas que respondem ou processam esses sinais leva natural- mente a duas estruturas paralelas para análise de sinais e sistemas — uma para fenômenos e processos que são descritos em tempo contínuo e uma para aqueles que são descritos em tempo discreto. Os conceitos e técnicas associados a sinais e sistemas de tempo contínuo e a sinais e sistemas de tempo discreto possuem uma história rica e, em conceito, são bastante relacionados. Historicamente, porém, como suas aplica- ções no passado foram um tanto diferentes, em sua maior parte, eles têm sido estudados e desenvolvidos separada- mente. Os sinais e sistemas de tempo contínuo possuem raízes muito fortes nos problemas associados à física e, 2 Sinais e sistemas em função da profundidade, são usados para estudar a es- trutura da Terra. Além disso, o conhecimento das varia- ções da pressão do ar, da temperatura e da velocidade do vento em função da altitude é extremamente impor- tante em pesquisas meteorológicas. A Figura 1.5 mostra um exemplo de média anual típica do perfil do vento vertical em função da altura. A medida de variações da velocidade do vento em função da altura é usada para examinar padrões climáticos, bem como as condições do vento que podem afetar uma aeronave durante a apro- ximação para o pouso e para o pouso em si. Ao longo do livro, consideraremos dois tipos bási- cos de sinais: sinais de tempo contínuo e sinais de tempo discreto. No caso dos sinais de tempo contínuo, a variá- vel independente é contínua e, portanto, esses sinais são definidos em um conjunto contínuo de valores da variá- vel independente. Em contrapartida, os sinais de tempo discreto são definidos somente em instantes discretos, ou seja, a variável independente assume apenas um conjun- to discreto de valores. Um sinal de fala em função do tempo e a pressão atmosférica em função da altitude são exemplos de sinais de tempo contínuo. O índice sema- nal Dow-Jones da Bolsa de Valores de Nova York, como ilustrado na Figura 1.6, é um exemplo de sinal de tem- po discreto. Outros exemplos de sinais de tempo discre- to podem ser encontrados em estudos demográficos nos quais várias características, como renda média, índice de criminalidade ou quantos quilos de peixe foram pesca- dos, são associadas a variáveis discretas como tamanho da família, população total ou tipo de navio de pesca, respectivamente. Para distinguir os sinais de tempo contínuo dos sinais de tempo discreto, usaremos o símbolo t para represen- 200 ms oul dsh ew ch sea a Figura 1.3 Exemplo de uma gravação de fala. (Adaptado de Oppenheim, A. V. (ed.). Applications of digital signal processing. Englewood Cliffs, N. J.: Prentice-Hall, Inc., 1978, p. 121.) O sinal re- presenta variações de pressão acústica em função do tempo para as palavras faladas em inglês “should we chase”. A primeira linha da figura corresponde à palavra 'should', a segunda linha corresponde à palavra 'we' e as últimas duas linhas, à palavra 'chase'. (Indicamos o início e o final aproximado de cada som sucessivo em cada palavra.) Figura 1.4 Imagem monocromática. 26 24 22 20 18 16 14 12 10 8 6 4 2 2000 400 600 800 Altura (pés) 1.000 1.200 1.400 1.600 V el oc id ad e (n ós ) Figura 1.5 Média anual típica do perfil do vento vertical. (Adaptado de Crawford e Hudson. National Severe Storms Laboratory Report. ESSA ERLTM-NSSL 48, ago. 1970.) Sinais e sistemas 3 tar a variável independente de tempo contínuo e n para representar a variável independente de tempo discreto. Para os sinais de tempo contínuo, ainda, usaremos a va- riável independente entre parênteses (·), e para os sinais de tempo discreto, utilizaremos a variável independente entre colchetes [·]. Em muitos casos será útil representar os sinais graficamente. Exemplos de um sinal de tempo contínuo x(t) e de um sinal de tempo discreto x[n] são mostrados na Figura 1.7. É importante notar que o sinal de tempo discreto x[n] é definido apenas para valores in- teiros da variável independente. Nossa escolha da repre- sentação gráfica de x[n] ressalta esse fato, e, ocasionalmen- te, para maior ênfase, vamos nos referir a x[n] como uma sequência de tempo discreto. Um sinal de tempo discreto x[n] pode representar um fenômeno para o qual a variável independente é ine- rentemente discreta. Sinais como dados demográficos são exemplos de tal caso. Por outro lado, uma classe muito importante de sinais de tempo discreto decorre da amos- tragem de sinais de tempo contínuo. Nesse caso, o sinal de 4 jan./19305 jan./1929 400 350 300 250 200 150 100 50 0 Figura 1.6 Exemplo de sinal de tempo discreto: índice semanal Dow-Jones da Bolsa de Valores de Nova York, de 5 de janeiro de 1929 a 4 de janeiro de 1930. x(t) x[n] x[0] x[1]x[1] x[2] t0 (a) (b) 16 0 1 2 3 4 5 6 7 8 9 n 102345789 Figura 1.7 Representações gráficas de (a) sinais de tempo contínuo e (b) sinais de tempo discreto. 4 Sinais e sistemas tempo discreto x[n] representa amostras sucessivas de um fenômeno para o qual a variável independente é contí- nua. Devido à sua velocidade, capacidade computacional e flexibilidade, os processadores digitais modernos são usados para implementar muitos sistemas práticos, que vão dos pilotos automáticos até os sistemas de áudio digi- tal. Sistemas desse tipo requerem o uso de sequências de tempo discreto, representando versões amostradas de si- nais de tempo contínuo — por exemplo, posição da aero- nave, velocidade e direção para um piloto automático ou fala e música para um sistema de áudio. Além disso, ima- gens em jornais — ou neste livro, por exemplo — consis- tem, de fato, em uma rede muito fina de pontos, e cada um desses pontos representa uma amostra do brilho do ponto correspondente na imagem original. No entanto, independentemente da fonte dos dados, o sinal x[n] é de- finido somente para valores inteiros de n. Não faz sentido referir-se tanto à amostra 3,5 de um sinal de fala digital quanto à renda média de uma família com 2,5 membros. Ao longo de quase todo o livro, trataremos os sinais de tempo discreto e os sinais de tempo contínuo separa- damente, porém em paralelo, de forma que os conhe- cimentos desenvolvidos para um caso possam auxiliar a compreensão do outro. No Capítulo 7, voltaremos à questão da amostragem e, nesse contexto, utilizaremos conjuntamente os conceitos de tempo discreto e de tem- po contínuo para examinar a relação entre um sinal de tempo contínuo e um sinal de tempo discreto obtido a partir de sua amostragem. 1.1.2 Energia e potência de um sinal A partir dos diferentes exemplos até agora citados, podemos notar que os sinais podem representar ampla gama de fenômenos. Em muitas aplicações, os sinais que consideramos estão diretamente relacionados a quanti- dades físicas e a partir deles pode-se extrair a potência ou energia de um sistema físico. Por exemplo, se v(t) e i(t) são, respectivamente, a tensão e a corrente através de um resistor com resistência R, então a potência instantânea é p t v t i t R v t( ) ( ) ( ) ( )= = 1 2 . (1.1) A energia total dissipada no intervalo de tempo t1 ≤ t ≤ t2 é p t dt R v t dt t t t t ( ) ( )= ∫∫ 1 1 2 1 2 2 , (1.2) e a potência média durante esse intervalo de tempo é 1 1 1 2 1 2 1 2 1 2 1 2 t t p t dt t t R v t dt t t t t − = −∫ ∫( ) ( ) . (1.3) De modo similar, para o automóvel da Figura 1.2, a potência instantânea dissipada por meio do atrito é p(t) = ρv2(t), e então podemos definir a energia total e a po- tência média em um intervalo de tempo da mesma forma como nas equações 1.2 e 1.3. Tendo como motivação exemplos físicos simples como estes, é usual considerar a mesma terminologia para potência e energia de qualquer sinal de tempo contí- nuo x(t) e de qualquer sinal de tempo discreto x[n]. Além disso, como veremos a seguir, muitas vezes, na prática, é conveniente considerar sinais que assumem valores complexos. Nesse caso, a energia total no intervalo de tempo t1 ≤ t ≤ t2 do sinal de tempo contínuo x(t) é defi- nida como x t dt t t ( ) 2 1 2 ∫ , (1.4) em que |x| denota o módulo do número x, possivelmen- te complexo. A potência média é obtida dividindo-se a Equação 1.4 pelo comprimento, t2 − t1, do intervalo de tempo. Do mesmo modo, a energia total em um sinal de tempo discreto x[n] no intervalo de tempo n1 ≤ n ≤ n2 é definida como x n n n n [ ] 2 1 2 = ∑ , (1.5) e dividindo-se pelo número de pontos no intervalo, n2 − n1 + 1, resulta na potência média no intervalo. É importante lembrar que os termos 'potência' e 'ener- gia' são usados aqui independentemente de as quanti- dades nas equações 1.4 e 1.5 serem de fato relacionadas à energia física.1 Contudo, será mais prático usar esses termos de modo geral. Além do mais, será de nosso interesse, em muitos sistemas, examinar a potência e a energia em sinais ao longo de um intervalo de tempo com duração infini- ta, isto é, para − < t < + ou para − < n < + . 1 Mesmo que essa relação exista, as equações 1.4 e 1.5 podem ter dimensões e escalas erradas. Por exemplo, comparando as equações 1.2 e 1.4, vemos que se x(t) representa a tensão de um resistor, então a Equação 1.4 deve ser dividida pela resistên- cia (medida, por exemplo, em ohms) para obtermos unidade de energia física. Sinais e sistemas 7 de x(t) como uma gravação em fita magnética, então x(2t) será essa gravação reproduzida com o dobro da velocidade e x(t/2), com a metade da velocidade. É interessante determinar o efeito da transformação da variável independente do sinal x(t) para se obter um si- nal da forma x(αt + β), em que α e β são números dados. Uma transformação como esta da variável independente preserva a forma de x(t), exceto pelo fato de que o sinal re- sultante pode ser linearmente estendido se |α| > 1, linear- mente comprimido se |α| < 1, refletido no tempo se α < 0, e deslocado no tempo se β for diferente de zero. Isso é ilustrado no conjunto de exemplos a seguir. Exemplo 1.1 Dado o sinal x(t) mostrado na Figura 1.13(a) (veja p. 8), o sinal x(t + 1) corresponde a um adiantamento (desloca- mento para a esquerda) por uma unidade ao longo do eixo t, conforme ilustra a Figura 1.13(b). Especificamente, percebe- mos que o valor de x(t) em t = t0 ocorre em x(t + 1) no instante t = t0 − 1. Por exemplo, o valor de x(t) em t = 1 é encontrado em x(t + 1) em t = 1 − 1 = 0. Igualmente, se x(t) é zero para t < 0, temos x(t + 1) igual a zero para t < − 1. De modo se- melhante, se x(t) é zero para t > 2, x(t + 1) é zero para t > 1. Consideremos também o sinal x(− t + 1), que pode ser obtido ao substituirmos t por − t em x(t + 1). Isto é, x(− t + 1) é a versão em tempo refletido de x(t + 1). Assim, x(− t + 1) pode ser obtido graficamente espelhando-se x(t + 1) em relação ao eixo t, como mostra a Figura 1.13(c). Exemplo 1.2 Dado o sinal x(t), mostrado na Figura 1.13(a), o sinal x( 3 2 t) corresponde a uma compressão linear de x(t) por um fator de 2 3 , como ilustrado na Figura 1.13(d). Notamos, espe- cificamente, que o valor de x(t) em t = t0 acontece em x( 3 2 t) para t = 2 3 t0. Por exemplo, o valor de x(t) em t = 1 acontece em x( 3 2 t) no instante t = 2 3 (1) = 2 3 . Também, como x(t) é zero para t < 0, teremos x(32 t) igual a zero para t < 0. De modo seme- lhante, como x(t) é zero para t > 2, então x(32 t) é zero para t > 4 3 . Exemplo 1.3 Suponha que gostaríamos de determinar o efeito de trans- formar a variável independente de um dado sinal, x(t), para ob- ter um sinal da forma x(αt + β), em que α e β são números dados. Um método sistemático de fazer isso é, primeiro, atrasar ou adiantar x(t) de acordo com o valor de β e, depois, efetuar a mudança de escala no tempo e/ou a reflexão no tempo no sinal resultante de acordo com o valor de α. O sinal adiantado ou atrasado será linearmente estendido se |α| < 1, linearmente comprimido se |α| > 1 e refletido no tempo se α < 0. Para ilustrar esse método, vamos mostrar como x(32 t + 1) pode ser determinado para o sinal x(t) exibido na Figu- ra 1.13(a). Sendo β = 1, primeiro adiantamos (deslocamos para a esquerda) x(t) de 1, como mostra a Figura 1.13(b). Sendo |α| = 32, podemos comprimir linearmente o sinal des- locado da Figura 1.13(b) por um fator de 23 para obter o sinal mostrado na Figura 1.13(e). Além de serem usadas na representação de fenô- menos físicos como o deslocamento no tempo em um sinal de sonar ou a aceleração ou reflexão de uma fita de áudio, as transformações da variável independente são extremamente úteis na análise de sinais e sistemas. Na Seção 1.6 e no Capítulo 2, usaremos transformações da variável independente para apresentar e analisar as propriedades dos sistemas. Essas transformações também são importantes para definirmos e examinarmos algumas propriedades importantes dos sinais. 1.2.2 Sinais periódicos Uma classe fundamental de sinais que encontrare- mos com frequência em todo o livro é a classe dos sinais periódicos. Um sinal periódico de tempo contínuo x(t) tem a propriedade de que existe um valor positivo T para o qual x(t) = x(t + T) (1.11) para todos os valores de t. Em outras palavras, um sinal periódico tem a propriedade de não se modificar pelo des- locamento no tempo de T. Nesse caso, dizemos que x(t) x(t/2) t x(2t) x(t) t t Figura 1.12 Sinais de tempo contínuo relacionados por mudança de escala no tempo. 8 Sinais e sistemas x (t) 1 10 (a) (b) (c) (d) (e) 2 t x t 1 2/30 4/3 t x (t1)1 10 2 t x (t1)1 1 1 10 t 3 2 x t1321 2/3 0 2/3 t Figura 1.13 (a) Sinal de tempo contínuo x (t ) usado nos exemplos 1.1 a 1.3 para ilustrar as transformações da variável independente; (b) sinal deslocado no tempo x (t + 1); (c) sinal x (− t + 1) obtido por um deslocamento no tempo e uma reflexão no tempo; (d) sinal comprimido no tempo x (32 t ) e (e) sinal x ( 3 2 t + 1) obtido por mudança de escala e deslocamento no tempo. Sinais e sistemas 9 é periódico com período T. Sinais periódicos de tempo con- tínuo aparecem em muitos contextos. Por exemplo, como ilustrado no Problema 2.61, as respostas naturais de sis- temas em que a energia é conservada, como os circuitos LC ideais sem dissipação de energia resistiva e os sistemas mecânicos ideais sem perdas por atrito, são periódicas e, na verdade, são compostas de alguns dos sinais periódicos básicos que apresentaremos na Seção 1.3. Uma ilustração de sinal periódico de tempo contí- nuo é dada na Figura 1.14. Podemos rapidamente inferir, a partir da figura ou da Equação 1.11, que, se x(t) é pe- riódico com período T, então x(t) = x(t + mT) para todo t e para qualquer número inteiro m. Assim, x(t) também é periódico com período 2T, 3T, 4T,... O período fundamen- tal T0 de x(t) é o menor valor positivo de T para o qual a Equação 1.11 é satisfeita. Essa definição do período fun- damental é adequada, exceto se x(t) for uma constante. Nesse caso, o período fundamental é indefinido, já que x(t) é periódico para qualquer escolha de T (de modo que não há valor positivo menor). Um sinal x(t) que não é perió- dico será chamado sinal aperiódico. Os sinais periódicos são definidos de modo análogo em tempo discreto. Especificamente, um sinal de tem- po discreto x[n] é periódico com período N, em que N é um número inteiro positivo, se ele não é modificado por um deslocamento no tempo de N, isto é, se x[n] = x[n + N] (1.12) para todos os valores de n. Se a Equação 1.12 é válida, então x[n] também é periódico com período 2N, 3N,... O período fundamental N0 é o menor valor positivo de N para o qual é válida a Equação 1.12. Um exemplo de sinal perió- dico de tempo discreto com período fundamental N0 = 3 é mostrado na Figura 1.15. Exemplo 1.4 Vamos ilustrar o tipo de problema que pode ser encon- trado para determinar se dado sinal é ou não perió dico. O sinal cuja periodicidade devemos verificar é dado por x t t t t t ( ) cos( ) ( ) .= < ≥ ⎧ ⎨ ⎪⎪ ⎩⎪⎪ se sen se 0 0 (1.13) Sabemos pela trigonometria que cos(t + 2π) = cos(t) e sen(t + 2π) = sen(t). Logo, considerando t > 0 e t < 0 separada- mente, vemos que x(t) se repete a cada intervalo de compri- mento 2π. No entanto, conforme ilustrado na Figura 1.16, x(t) também tem uma descontinuidade na origem do tempo que não é recorrente em momento nenhum. Como toda característica na forma de um sinal periódico deve recorrer periodicamente, concluímos que o sinal x(t) não é periódico. x(t) 2T T 0 T 2T t Figura 1.14 Sinal periódico de tempo contínuo. x[n] n Figura 1.15 Sinal periódico de tempo discreto com período funda- mental N0 = 3. 6 4 2 2 4 6 t0 x(t) Figura 1.16 Sinal x (t ) considerado no Exemplo 1.4. 1.2.3 Sinais com simetria par e com simetria ímpar Outro grupo de propriedades úteis dos sinais rela- ciona-se a sua simetria com relação à reflexão no tempo. Definimos um sinal x(t) ou x[n] como sinal com simetria par se ele é idêntico ao seu equivalente espelhado no tem- po, isto é, ao seu reflexo em relação à origem. Em tempo contínuo, um sinal tem simetria par se x( − t) = x(t), (1.14) enquanto um sinal de tempo discreto tem simetria par se x[ − n] = x[n]. (1.15) Um sinal é tido como de simetria ímpar se x( − t) = − x(t), (1.16) x[ − n] = − x[n]. (1.17) Um sinal ímpar deve necessariamente ser 0 em t = 0 ou n = 0, pois as equações 1.16 e 1.17 determinam que x(0) = −x(0) e x[0] = −x[0]. Exemplos de sinais de tempo contínuo com simetria par e com simetria ímpar são mos- trados na Figura 1.17. 12 Sinais e sistemas Do mesmo modo, o sinal senoidal da Equação 1.25 pode ser escrito em termos de exponenciais complexas perió- dicas, novamente com o mesmo período fundamental: A t A e e A e ej j t j j tcos( ) .ω φ φ ω φ ω0 2 2 0 0+ = + − − (1.27) Note que as duas exponenciais na Equação 1.27 têm am- plitudes complexas. Alternativamente, podemos expres- sar um sinal senoidal em termos de um sinal exponencial complexo como A cos(ω0t + φ) = A {e j(ω0t + φ}, (1.28) em que, se c é um número complexo, {c} denota sua parte real. Também usaremos a notação {c} para a par- te imaginária de c, de modo que, por exemplo, A sen(ω0t + φ) = A {e j(ω0t + φ)}. (1.29) A partir da Equação 1.24, vemos que o período fun- damental T0 de um sinal senoidal de tempo contínuo ou de uma exponencial periódica complexa é inversamente proporcional a |ω0|, à qual nos referiremos como frequên- cia fundamental. A Figura 1.21 nos mostra graficamente o que isso significa. Se diminuímos o módulo de ω0, redu- ziremos a taxa de oscilação e, com isso, aumentamos o período. Efeitos exatamente opostos ocorrem se aumen- tamos o módulo de ω0. Considere agora ω0 = 0. Nesse caso, como mencionamos anteriormente, x(t) é constante e, portanto, periódico com período T para todo valor po- sitivo de T. Assim, o período fundamental de um sinal constante é indefinido. Por outro lado, não há ambiguida- de em definirmos a frequência fundamental de um sinal constante como sendo zero. Ou seja, um sinal constante tem taxa de oscilação zero. Sinais periódicos — particularmente o sinal expo- nencial complexo periódico na Equação 1.21 e o sinal senoidal na Equação 1.25 — são importantes exemplos de sinais com energia total infinita, mas com potência média finita. Por exemplo, considere o sinal exponencial periódico complexo da Equação 1.21 e suponha que cal- culemos a energia total e a potência média nesse sinal durante um período: E e dt dt T j t T T período = = ⋅ = ∫ ∫ ω00 0 2 0 00 1 , (1.30) P T Eperíodo período= = 1 1 0 . (1.31) Como há um número infinito de períodos, pois t varia de − a + , a energia total integrada durante todo o tempo é infinita. No entanto, em cada período o sinal tem exata- mente a mesma forma. Uma vez que a potência média do sinal é igual a 1 em cada período, a média retirada duran- te múltiplos períodos sempre resulta em uma potência média igual a 1. Ou seja, o sinal exponencial periódico complexo tem potência média finita igual a P T e dt T T T j t ∞ = = →∞ −∫lim 1 2 10 2 ω . (1.32) x1(t)  cos v1t x2(t)  cos v2t x3(t)  cos v3t (a) (b) (c) T2 T1 T3 t t t Figura 1.21 Relação entre a frequência fundamental e o período dos sinais senoidais de tempo contínuo; aqui, ω1> ω2 > ω3, que im- plica T1< T2 < T3. Sinais e sistemas 13 O Problema 1.3 fornece exemplos adicionais de cálculos de potência e energia para sinais periódicos e aperiódicos. Sinais exponenciais periódicos complexos têm um papel importante na maior parte da nossa abordagem dos sinais e sistemas, em parte porque servem como elementos bá sicos extremamente úteis para muitos outros sinais. Se- rá bas tante útil considerarmos, também, conjuntos de si- nais exponenciais complexos harmonicamente relacionados — isto é, conjuntos de sinais exponenciais periódicos, sendo todos periódicos com um período comum T0. De modo mais específico, uma condição necessária para que uma exponencial complexa ejωt seja periódica com período T0 é que ejωT0 = 1, (1.33) o que significa que ωT0 é múltiplo de 2π, isto é, ω T0 = 2πk, k = 0, ± 1, ± 2, ... (1.34) Assim, se definirmos ω π 0 0 2 = T , (1.35) vemos que, para satisfazer a Equação 1.34, ω deve ser um número inteiro múltiplo de ω0. Ou seja, um conjunto de exponenciais complexas harmonicamente relacionadas é um conjunto de exponenciais periódicas com frequências fundamentais que são múltiplas de uma única frequência positiva ω0: φk(t) = e jkωot , k = 0, ± 1, ± 2,... (1.36) Para k = 0, φk(t) é uma constante, enquanto para qual- quer outro valor de k, φk(t) é periódico com frequência fundamental |k|ω0 e período fundamental 2 0 0π ωk T k = . (1.37) A k-ésima harmônica φk(t) continua sendo periódica com período T0, também, já que qualquer intervalo de compri- mento T0 contém exatamente |k| de seus períodos funda- mentais. O uso que fazemos do termo 'harmônica' é consis- tente com sua utilização em música, em que se refere a tons resultantes de variações na pressão acústica em frequências que são múltiplos inteiros de uma frequên- cia fundamental. Por exemplo, o padrão das vibrações de uma corda em um instrumento como um violino pode ser descrito como uma superposição — isto é, uma soma ponderada — de exponenciais periódicas harmonicamen- te relacionadas. No Capítulo 3, veremos que é possível montar uma classe bem rica de sinais periódicos usando os sinais harmonicamente relacionados da Equação 1.36 como elementos básicos. Exemplo 1.5 Às vezes é desejável expressar a soma de dois sinais exponenciais complexos como o produto de um único si- nal exponencial complexo e um único sinal senoidal. Por exemplo, suponha que se deseje representar em gráfico o módulo do sinal x(t) = ej2t + ej3 t. (1.38) Para isso, primeiro coloca-se em evidência uma exponencial complexa do membro direito da Equação 1.38, onde a fre- quência desse fator exponencial é tomada como a média das frequências das duas exponenciais na soma. Fazendo isso, obtemos x(t) = ej2,5t(e−j0,5 + ej0,5t), (1.39) que, pela relação de Euler, pode ser reescrito como x(t) = 2ej2,5t cos(0,5t). (1.40) A partir desta equação, obtemos diretamente uma expressão para o módulo de x(t): |x(t)| = 2|cos(0,5t)|. (1.41) Aqui, usamos o fato de que o módulo da exponencial com- plexa ej2,5t é sempre unitário. Logo, |x(t)| é o que se costuma chamar de uma senoide retificada em onda completa, como mostra a Figura 1.22. 2 4 6 8 t0 2 |x(t)| Figura 1.22 Sinal senoidal retificado em onda completa do Exemplo 1.5. Sinais exponenciais complexos gerais O caso mais geral de um sinal exponencial complexo pode ser expresso e interpretado em termos dos dois casos 14 Sinais e sistemas que examinamos até agora: a exponencial real e a expo- nencial periódica complexa. Especificamente, considere uma exponencial complexa Ceat, na qual C é expresso na forma polar e a, na forma retangular. Ou seja, C = |C|ejθ e a = r + jω0 Então, Ceat = |C|ejθ e(r + jω0)t = |C|ert ej(ω0t + θ). (1.42) Usando a relação de Euler, podemos expandi-la como Ceat = |C|ert cos(ω0t + θ) + j|C|e rt sen(ω0t + θ). (1.43) Portanto, para r = 0, as partes real e imaginária de uma exponencial complexa são senoidais. Para r > 0, elas correspondem a sinais senoidais multiplicados por uma exponencial crescente, e para r < 0 elas correspondem a sinais senoidais multiplicados por uma exponencial decrescente. Esses dois casos são mostrados na Figura 1.23. As linhas pontilhadas na figura correspondem às funções ±|C|ert. A partir da Equação 1.42, vemos que |C|ert é o módulo da exponencial complexa. Assim, as curvas pontilhadas agem como uma envoltória das oscilações na figura porque os picos das oscilações só encostam nessas curvas. Dessa forma, a envoltória proporciona um modo prático para visualizarmos a tendência geral na amplitude das oscilações. Sinais senoidais multiplicados por exponenciais decrescentes são comumente chamados sinais senoidais amortecidos. Exemplos de senoidais amortecidos podem ser observados na resposta dos circuitos RLC e em siste- mas mecânicos contendo tanto forças de amortecimento quanto forças restauradoras, como sistemas de suspensão de automóveis. Esse tipo de sistema tem mecanismos que dissipam a energia (resistores, forças de amortecimento como atrito) com oscilações que diminuem com o tempo. Exemplos ilustrando sistemas desse tipo e suas respostas naturais senoidais amortecidas podem ser vistos nos pro- blemas 2.61 e 2.62. 1.3.2 Sinais senoidais e exponenciais complexas de tempo discreto Assim como em tempo contínuo, um importante si- nal de tempo discreto é a sequência ou o sinal exponencial complexo, definido como x[n] = Cαn, (1.44) em que C e α são, em geral, números complexos. Tam- bém podemos expressar essa equação na forma x[n] = Ceβn, (1.45) sendo α = eβ. Embora a forma da sequência exponencial complexa de tempo discreto dada na Equação 1.45 seja parecida à for- ma da exponencial de tempo contínuo, costuma ser mais conveniente expressar a sequência exponencial complexa de tempo discreto na forma da Equação 1.44. Sinais exponenciais reais Se C e α são reais, podemos ter diferentes tipos de comportamento, como ilustrado na Figura 1.24. Se |α| > 1, o módulo do sinal cresce exponencialmente com n, ao passo que se |α| < 1, temos uma exponencial decrescen- te. Além disso, se α é positivo, todos os valores de Cαn terão o mesmo sinal, mas se α é negativo, o sinal de x[n] é alternado. Note também que se α = 1, então x[n] é uma constante, mas se α = −1, o valor de x[n] é alternado entre +C e –C. Exponenciais de tempo discreto e valor real são geralmente usadas para descrever o crescimento (a) (b) t t x(t) x(t) Figura 1.23 (a) Sinal senoidal crescente x (t) = Cert cos(ω0t + θ), r > 0; (b) senoidal decrescente x (t) = Cert cos(ω0t + θ), r < 0. Sinais e sistemas 17 Da Equação 1.51, vemos que o sinal exponencial na fre- quência ω0 + 2π é o mesmo na frequência ω0. Logo, temos uma situação bem diferente do caso do tempo contínuo, em que os sinais ejω0t são todos distintos para valores distintos de ω0. No tempo discreto, esses sinais não são distintos, pois o sinal de frequência ω0 é idêntico aos sinais de frequências ω0 ± 2π, ω0 ± 4π e assim por diante. Dessa forma, ao con- siderarmos os sinais exponenciais complexos de tempo discreto, precisamos apenas considerar ω0 em um inter- valo de comprimento 2π. De acordo com a Equação 1.51, embora qualquer intervalo de comprimento 2π possa ser usado, na maioria das vezes usaremos o intervalo 0 ≤ ω0 < 2π ou o intervalo – π ≤ ω0 < π. Devido à periodicidade indicada na Equação 1.51, o sinal ejω0n não tem uma taxa crescente de oscilação com o aumento do módulo de ω0. Em vez disso, como ilustra a Figura 1.27, quando aumentamos ω0 a partir de 0, obte- mos sinais que oscilam cada vez mais rápido até alcançar ω0 = π. À medida que continuamos a aumentar ω0, dimi- nuímos a taxa de oscilação até chegar em ω0 = 2π, o que gera a mesma sequência constante que ω0 = 0. Portanto, os sinais exponenciais de baixa frequência (ou seja, varia- ção lenta) de tempo discreto têm valores de ω0 próximos de 0, 2π e qualquer outro múltiplo par de π, e os valo- res das altas frequências (que correspondem a variações rápidas) estão próximos de ω0 = ±π e outros múltiplos ímpares de π. Note-se que, em particular, para ω0 = π ou qualquer múltiplo ímpar de π, ejπn = (ejπ)n = (–1)n, (1.52) de modo que esse sinal oscila rapidamente, mudando o sinal em todos os instantes de tempo — como ilustrado na Figura 1.27(e). A segunda propriedade que devemos considerar diz respeito à periodicidade do sinal exponencial complexo de tempo discreto. Para que o sinal ejω0N seja periódico com período N > 0, devemos ter ejω0(n+N) = ejω0n, (1.53) ou, de modo equivalente, ejω0N = 1. (1.54) Para que a Equação 1.54 seja satisfeita, ω0N deve ser múl- tiplo de 2π. Ou seja, deve haver um número inteiro m de modo que ω0N = 2πm, (1.55) ou, de modo equivalente, ω π 0 2 = m N . (1.56) n n (a) (b) Figura 1.26 (a) Sinais senoidais crescentes de tempo discreto; (b) senoide decrescente de tempo discreto. 18 Sinais e sistemas x[ n]  c os (0 • n)  1 n x[ n]  c os ( n /2 ) n x[ n]  c os  n n x[ n]  c os (3  n /2 ) n x[ n]  c os 2  n n x[ n]  c os (1 5 n /8 ) n x[ n]  c os (7  n /4 ) n x[ n]  c os ( n /4 ) n x[ n]  c os ( n/ 8) n (a ) (b ) (c ) (e ) (d ) (f ) (h ) (g ) (i ) Figura 1.27 Sequências senoidais de tempo discreto para diferentes frequências. Sinais e sistemas 19 De acordo com a Equação 1.56, o sinal ejω0n é periódico se ω0/2π é um número racional, caso contrário, ele é não periódico. Essas mesmas observações são válidas para as sequências senoidais de tempo discreto. Por exemplo, os sinais representados na Figura 1.25(a) e (b) são periódi- cos, mas o sinal na Figura 1.25(c) não é. Usando os cálculos que acabamos de fazer, tam- bém podemos determinar a frequência e o período funda- mental das exponenciais complexas de tempo discreto, sendo que definimos a frequência fundamental de um sinal periódico de tempo discreto da mesma forma que fizemos no tempo contínuo. Ou seja, se x[n] é perió- dico com período fundamental N, sua frequência fun- damental é 2π/N. Considere, então, uma exponencial periódica complexa x[n] = ejω0n com ω0 ≠ 0. Como aca- bamos de ver, ω0 deve satisfazer a Equação 1.56 para algum par de números inteiros m e N, sendo N > 0. No Problema 1.35, mostraremos que se ω0 ≠ 0 e se N e m não têm nenhum fator em comum, então o período fundamental de x[n] é N. Usando este fato com a Equa- ção 1.56, encontramos que a frequência fundamental do sinal periódico ejω0n é 2 0π ω N m = . (1.57) Note-se que o período fundamental também pode ser escrito como N m= ⎛ ⎝ ⎜⎜⎜⎜ ⎞ ⎠ ⎟⎟⎟⎟ 2 0 π ω . (1.58) Essas duas últimas expressões diferem novamen- te de suas equivalentes de tempo contínuo. Na Tabela 1.1, resumimos algumas das diferenças entre o sinal de tem- po contínuo ejω0t e o sinal de tempo discreto ejω0n. Note-se que, como no caso do tempo contínuo, o sinal constante de tempo discreto resultante da escolha ω0 = 0 tem uma frequência fundamental igual a zero, e seu período fun- damental é indefinido. Para compreender melhor essas propriedades, vamos examinar mais uma vez os sinais representa- dos na Figura 1.25. Primeiro, considere a sequência x[n] = cos(2πn/12), mostrada na Figura 1.25(a), que podemos interpretar como um conjunto de amostras do sinal senoidal de tempo contínuo x(t) = cos(2πt/12) em instantes de tempo inteiros. Nesse caso, x(t) é pe- riódico com período fundamental 12 e x[n] também é periódico com período fundamental 12. Ou seja, os va- lores de x[n] repetem-se a cada 12 pontos, exatamen- te no mesmo passo que o período fundamental de x(t). Em contrapartida, considere o sinal x[n] = cos(8πn/31), representado na Figura 1.25(b), o qual pode ser visto como o conjunto de amostras de x(t) = cos(8πt/31) em instantes de tempo inteiros. Nesse caso, x(t) é periódico com período fundamental 31/4. Por outro lado, x[n] é periódico com período fundamental 31. A razão dessa diferença é que o sinal de tempo discreto é definido so- mente para valores inteiros da variável independente. Por isso, não há nenhuma amostra no instante t = 31/4 quando x(t) completa um período (começando em t = 0). Do mesmo modo, não há nenhuma amostra em t = 2 · 31/4 ou t = 3 · 31/4, quando x(t) completa dois ou três perío- dos, mas há uma amostra em t = 4 · 31/4 = 31, quando x(t) completa quatro períodos. Isso pode ser visto na Figura 1.25(b), em que o padrão dos valores x[n] não se repete a cada ciclo de valores positivos e negativos. Em vez disso, o padrão repete-se depois de quatro desses ciclos, isto é, a cada 31 pontos. De modo semelhante, o sinal x[n] = cos(n/6) pode ser visto como um conjunto de amostras do sinal x(t) = cos(t/6) em instantes de tempo inteiros. Nesse caso, os valores de x(t) em instantes de tempo inteiros nunca se repetem, uma vez que esses pontos de amostragem nun- TABELA 1.1 Comparação dos sinais e jω0t e e jω0n. e jω0t e jω0n Sinais diferentes para valores diferentes de ω0 Sinais idênticos para valores de ω0 espaçados por múltiplos de 2π Periódico para qualquer escolha de ω0 Periódico somente se ω0 = 2πm/N para valores inteiros de N > 0 e m Frequência fundamental ω0 Frequência fundamental* ω0/m Período fundamental Período fundamental* ω0 = 0: indefinido ω0 = 0: indefinido ω0 ≠ 0: 2 0 π ω ω0 ≠ 0: m 2 0 π ω( ) *Supõe que m e N não têm fatores em comum. 22 Sinais e sistemas tário de modo análogo à relação entre as funções degrau e o impulso unitário de tempo discreto. Particularmente, o degrau unitário de tempo contínuo é a integral cumulativa do impulso unitário u t d t ( ) ( )= −∞∫ δ τ τ . (1.71) Isso também sugere uma relação entre δ(t) e u(t) análoga à expressão para δ[n] na Equação 1.65. Particularmente, segue da Equação 1.71 que o impulso unitário de tempo contínuo pode ser obtido como a primeira derivada do de- grau unitário de tempo contínuo: δ( ) ( ) t du t dt = . (1.72) Em oposição ao caso de tempo discreto, há uma dificuldade formal com essa equação como uma repre- sentação da função impulso unitário, pois u(t) é descon- tínuo em t = 0 e, como consequência, é formalmente não diferenciável. Podemos, no entanto, interpretar a Equação 1.72 considerando uma aproximação do degrau unitário uΔ(t), como ilustrado na Figura 1.33, que passa do valor 0 para o valor 1 em curto intervalo de duração Δ. O degrau unitário, obviamente, muda de valor ins- tantaneamente e, por isso, pode ser visto como uma idealização de uΔ(t) para Δ tão curto que sua duração não tem a mínima importância para nenhum propósito prático. Formalmente, u(t) é o limite de uΔ(t) quando Δ → 0. Consideremos a derivada δΔ Δ=( ) ( ) t du t dt , (1.73) como mostra a Figura 1.34. Note-se que δΔ(t) é um pulso curto, de duração Δ e com área unitária para qualquer valor de Δ. Quando Δ → 0, δΔ(t) torna-se mais estreito e mais alto, man- tendo sua área unitária. Sua forma limite δ δ( ) lim ( )t t= Δ→ Δ0 , (1.74) pode ser vista como uma idealização do pulso curto δΔ(t) à medida que a duração Δ se torna insignificante. Como δ(t) não tem duração, mas área unitária, adotamos sua notação gráfica conforme a Figura 1.35, na qual a seta em t = 0 indica que a área do pulso se concentra em t = 0 e a altura da seta e o '1' perto dela são usados para represen- tar a área do impulso. De forma geral, um impulso kδ(t) terá uma área k, portanto, k d ku t t δ τ τ( ) ( )= −∞∫ . Um impulso com área k é mostrado na Figura 1.36, em que a altura da flecha usada para descrever o impulso é escolhida como proporcional à área do impulso. Tal como no tempo discreto, pode-se fornecer uma interpretação gráfica simples da integral da Equação 1.71; isso é mostrado na Figura 1.37. Como a área do impul- so unitário de tempo contínuo δ(τ) está concentrada em τ = 0, notamos que a integral é 0 para t < 0 e 1 para t > 0. Além disso, vemos que a relação na Equação 1.71 entre o impulso e o degrau unitários de tempo contínuo pode ser reescrita de forma diferente, análoga à forma de tempo discreto na Equação 1.67, mudando a variável da integra- ção de τ para σ = t − τ: u t d t d t ( ) ( ) ( )( )= = − − ∞−∞ ∫∫ δ τ τ δ σ σ 0 , u(t) 1 0 t Figura 1.32 Função degrau unitário de tempo contínuo.  (t) 1 0 t Figura 1.34 Derivada de uΔ(t). (t) 0 1 t Figura 1.35 Impulso unitário de tempo contínuo. u (t) 1 0 t Figura 1.33 Aproximação contínua do degrau unitário, u Δ(t). Sinais e sistemas 23 ou, de modo equivalente, u t t d( ) ( )= − ∞ ∫ δ σ σ0 . (1.75) A interpretação gráfica dessa forma de relação en- tre u(t) e δ(t) é dada na Figura 1.38. Já que, nesse caso, a área de δ(t − σ) está concentrada no ponto σ = t, vemos novamente que a integral na Equação 1.75 é 0 para t < 0 e 1 para t > 0. Esse tipo de interpretação gráfica do com- portamento do impulso unitário sob integração será ex- tremamente útil no Capítulo 2. Assim como o impulso de tempo discreto, o impulso de tempo contínuo tem uma propriedade de amostragem muito importante. Em particular, por diversas razões, será útil considerar o produto de um impulso e funções de tempo contínuo x(t) mais bem comportadas. A inter- pretação dessa quantidade é desenvolvida mais facilmen- te usando-se a definição de δ(t) de acordo com a Equação 1.74. Especificamente, considere x1(t) = x(t)δΔ(t). Na Figura 1.39(a) esboçamos as duas funções de tempo x(t) e δΔ(t), e na Figura 1.39(b) temos uma visão am- pliada da porção diferente de zero de seu produto. Por construção, x1(t) é zero fora do intervalo 0 ≤ t ≤ Δ. Para Δ suficientemente pequeno de modo que x(t) seja apro- ximadamente constante nesse intervalo, x(t)δΔ(t) ≈ x(0)δΔ(t). Visto que δ(t) é o limite de δΔ(t) quando Δ → 0, segue-se que x(t)δ(t) = x(0)δ(t). (1.76) Usando o mesmo argumento, temos uma expressão aná- loga para um impulso concentrado em um ponto arbitrá- rio, t0, ou seja, x(t)δ(t − t0) = x(t0)δ(t − t0). Embora nossa discussão do impulso unitário nesta seção tenha sido um tanto informal, ela nos proporciona uma intuição importante sobre esse sinal que será bas- tante útil no decorrer de todo o livro. Como declaramos anteriormente, o impulso unitário deve ser visto como uma idealização. Como ilustramos e discutimos detalha- damente na Seção 2.5, qualquer sistema físico real tem alguma inércia associada a ele e, por essa razão, não res- ponde instantaneamente a entradas. Consequentemente, se um pulso de duração suficientemente curta é aplicado a um sistema desse tipo, a resposta do sistema não será (t ) Intervalo de integração t 0 (a) (b) () Intervalo de integração t0 Figura 1.37 Integral cumulativa dada na Equação 1.71: (a) t < 0; (b) t > 0. (t) Intervalo de integração t 0 (a) (t) Intervalo de integração t0 (b) Figura 1.38 Relação dada na Equação 1.75; (a) t < 0; (b) t > 0. k (t) 0 k t Figura 1.36 Impulso com área k. 24 Sinais e sistemas nitidamente influenciada pela duração do pulso nem pelos detalhes do formato do pulso. Em vez disso, a ca- racterística primária do pulso que terá importância é o efeito final e integrado do pulso — isto é, sua área. Para os sistemas que respondem muito mais rápido que ou- tros, o pulso deverá ter uma duração muito mais curta antes que os detalhes da forma do pulso ou sua dura- ção deixem de ser importantes. No entanto, para todo sistema físico, podemos sempre encontrar um pulso que é “curto o suficiente”. O impulso unitário, então, é uma idealização desse conceito — o pulso que é curto o sufi- ciente para qualquer sistema. Como veremos no Capítulo 2, a resposta de um sistema ao pulso idealizado tem um papel fundamental na análise dos sinais e sistemas, e, no processo de desenvolvimento e entendimento des- se papel, desenvolveremos um raciocínio mais detalhado sobre o sinal idealizado.3 Exemplo 1.7 Considere o sinal x(t) com descontinuidades repre- sentado na Figura 1.40(a). Por conta da relação entre o impulso unitário de tempo contínuo e o degrau unitário, podemos com facilidade calcular e representar graficamen- te a derivada desse sinal. De modo mais específico, a deri- vada de x(t) é claramente 0, exceto nas descontinuidades. No caso do degrau unitário, vimos (Equação 1.72) que a diferenciação dá origem a um impulso unitário localizado no ponto da descontinuidade. Além disso, multiplicando os dois lados da Equação 1.72 por qualquer número k, vemos que a derivada de um degrau unitário com uma desconti- nuidade de tamanho k dá origem a um impulso de área k no ponto da descontinuidade. Essa regra também é válida para qualquer outro sinal com um salto de descontinuida- de, como x(t) na Figura 1.40(a). Consequentemente, pode- mos esboçar sua derivada x . (t), como na Figura 1.40(b), em que um impulso é colocado em cada descontinuidade de x(t), com área igual ao tamanho da descontinuidade. Veja que, por exemplo, a descontinuidade de x(t) em t = 2 tem valor de −3, de modo que um impulso com área −3 está localizado em t = 2 no sinal x.(t). 3 O impulso unitário e outras funções relacionadas (que costumam ser denominadas coletivamente como funções de singularidade) foram amplamente estudados no campo da Matemática com no- mes alternativos de funções generalizadas e teoria das distribuições. Para discussões mais detalhadas do assunto, ver Distribution theory and transform analysis, de ZEMANIAN, A. H. (Nova York: McGraw- -Hill Book Company, 1965); Generalized functions, de HOSKINS, R. F. (Nova York: Halsted Press, 1979), ou um texto mais apro- fundado, Fourier analysis and generalized functions, de LIGHTHILL, M. J. (Nova York: Cambridge University Press, 1958). Nossa dis- cussão das funções de singularidade na Seção 2.5 foi diretamente influenciada pela teoria matemática descrita nesses textos e, por- tanto, fornece uma introdução informal aos conceitos que dão suporte a esse tópico na Matemática. 2 x(t) 1 32 t (a) 41 1 2 x . (t) 1 32 t (b) 41 1 2 3 1 32  (c) 41t 1 2 3 Intervalo de integração 2 Figura 1.40 (a) Sinal descontínuo x (t ) analisado no Exemplo 1.7; (b) sua derivada x . (t ); (c) representação da reconstrução de x (t ) como integral de x . (t ), ilustrada para um valor de t entre 0 e 1. (t)  t0 (t) x(t) x(0) (a)  t0 (b) Figura 1.39 O produto x (t) δΔ(t): (a) gráficos das duas funções; (b) visão ampliada da porção diferente de zero de seu produto. Sinais e sistemas 27 mos ferramentas para uma classe particular de sistemas definidos como sistemas lineares e invariantes no tempo. Na próxima seção, apresentaremos as propriedades que caracterizam essa classe, bem como várias outras pro- priedades básicas muito importantes de sistemas. A segunda característica mencionada no parágra- fo anterior é de importância evidente para que qualquer técnica de análise de sistemas tenha valor prático. É um fato bastante consolidado que uma gama muito ampla de sistemas físicos (inclusive aqueles dos exemplos 1.8 a 1.10) pode ser formulada dentro da classe de sistemas na qual nos concentramos neste livro. No entanto, um ponto crí- tico é que qualquer modelo usado na descrição ou análise de um sistema físico representa uma idealização desse sis- tema e, portanto, qualquer análise resultante será tão boa quanto o próprio modelo. Por exemplo, o modelo linear simples de um resistor na Equação 1.80 e de um capacitor na Equação 1.81 são idealizações. Entretanto, essas idea- lizações são bastante precisas para capacitores e resistores reais em muitas aplicações e, dessa forma, análises que aplicam essas idealizações fornecem conclusões e resul- tados úteis, desde que as tensões e correntes permaneçam dentro das condições de operação sob as quais esses modelos lineares simples são válidos. De modo semelhan- te, o uso de uma força linear retardadora para representar efeitos de atrito na Equação 1.83 é uma aproximação com uma faixa de validade. Consequentemente, embora não abordemos essa questão neste livro, é importante lembrar que um componente essencial da prática da engenharia quando usamos os métodos desenvolvidos aqui consiste em identificar a faixa de validade das hipóteses usadas em um modelo e garantir que toda análise ou projeto baseado naquele modelo não viole aquelas hipóteses. 1.5.2 Interconexões de sistemas Um conceito importante que usaremos em todo o livro é o de interconexão de sistemas. Muitos sistemas reais são construídos como interconexões de diversos subsistemas. Podemos citar como exemplo um sistema de áudio, que envolve a interconexão de um receptor de rádio, um CD player ou um toca-fitas com um ampli- ficador e uma ou mais caixas acústicas. Outros exem- plos são: uma aeronave controlada digitalmente, que é a interconexão da aeronave, descrita por suas equa- ções de movimento e as forças aerodinâmicas que a afetam; os sensores, que medem diversas variáveis da aeronave, como acelerações, taxas de rotação e rumo; um piloto automático, que responde às variáveis medi- das e a entradas de comando do piloto (como a direção, a altitude e a velocidade desejadas); e os atuadores, que respondem a entradas fornecidas pelo piloto automático para usar as superfícies de controle da aeronave (leme, cauda, ailerons) de forma a mudar as forças aerodinâmicas na aero nave. Interpretando um sistema desse tipo como uma interconexão de seus componentes, podemos usar nosso entendimento dos componentes e de como eles estão interconectados para analisar a operação e o com- portamento do sistema como um todo. Além disso, ao descrever um sistema em termos de interconexão dos subsistemas mais simples, podemos na verdade definir formas úteis para construir sistemas complexos a partir de elementos fundamentais básicos e mais simples. Apesar de ser possível construir uma variedade de interconexões de sistemas, alguns tipos básicos são frequentemente encontrados. Uma interconexão em série ou cascata de dois sistemas é mostrada na Figura 1.42(a). Diagramas como este são chamados de diagra- mas de blocos. Aqui, a saída do Sistema 1 é a entrada para o Sistema 2, e o sistema como um todo transforma uma entrada processando-a primeiro pelo Sistema 1 e depois pelo Sistema 2. Um exemplo de interconexão em série é um receptor de rádio seguido de um amplificador. Se- melhantemente, pode-se definir uma interconexão em série de três ou mais sistemas. Uma interconexão paralela de dois sistemas é ilustra- da na Figura 1.42(b). Aqui, o mesmo sinal de entrada é aplicado aos Sistemas 1 e 2. O símbolo '⊕' na figura sig- nifica adição, de modo que a saída da interconexão pa- ralela é a soma das saídas dos Sistemas 1 e 2. Um exemplo de interconexão paralela é um sistema simples de áudio com vários microfones ligados a um amplificador e a um sistema de caixas acústicas único. Além da interconexão paralela simples na Figura 1.42(b), podemos definir as interconexões paralelas de mais de dois sistemas e combinar a interconexão paralela com a interconexão em cascata para obter interconexões mais complica- das. Um exemplo desse tipo de interconexão é dado na Figura 1.42(c).4 Outro tipo importante de interconexão de sistemas é a interconexão com realimentação, cujo exemplo pode ser visto na Figura 1.43. Aqui, a saída do Sistema 1 é a en- trada para o Sistema 2, ao passo que a saída do Sistema 2 é realimentada e adicionada à entrada externa para produzir a entrada total do Sistema 1. Sistemas com re- alimentação podem ser encontrados em uma grande variedade de aplicações. Por exemplo, um sistema de piloto automático em um automóvel mede a velocidade 4 Quando for apropriado, também usaremos o símbolo ⊗ em nossa representação gráfica dos sistemas para denotar a operação de multiplicação de dois sinais (ver, por exemplo, a Figura 4.26). 28 Sinais e sistemas do veículo e ajusta o fluxo de combustível para manter a velocidade no nível desejado. Da mesma forma, uma aeronave controlada digitalmente é projetada, geral- mente, como um sistema com realimentação no qual as diferenças entre a velocidade real e a velocidade desejada, o rumo ou a altitude são realimentados por meio do pilo- to automático para corrigir essas discrepâncias. Também é frequentemente útil considerar os circuitos elétricos como contendo interconexões com realimentação. Como exem- plo, considere o circuito representado na Figura 1.44(a). Conforme indicado na Figura 1.44(b), esse sistema pode ser visto como uma interconexão com realimentação dos dois elementos do circuito. 1.6 Propriedades básicas de sistemas Nesta seção, apresentamos e discutimos várias pro- priedades básicas dos sistemas de tempo discreto e de tempo contínuo. Essas propriedades têm interpretações físicas importantes e descrições matemáticas relativa- mente simples usando a linguagem de sinais e sistemas que começamos a desenvolver. Saída SaídaEntrada Sistema 2Sistema 1Entrada Sistema 1 Sistema 2 (a) (b)  SaídaEntrada Sistema 2Sistema 1 Sistema 4 Sistema 3 (c)  Figura 1.42 Interconexão de dois sistemas: (a) interconexão em série (cascata); (b) interconexão paralela; (c) interconexão série-paralela. SaídaEntrada Sistema 1 Sistema 2  Figura 1.43 Interconexão com realimentação. Capacitor Resistor    i(t) v(t)  i1(t) v(t) i2 (t)  i2(t)i1(t)   i2(t) 1 C v(t) R i1 () d t  C R v(t)i(t) ∫ (a) (b) Figura 1.44 (a) Circuito elétrico simples; (b) diagrama de blocos no qual o circuito é representado como a interconexão com realimenta- ção dos dois elementos do circuito. Sinais e sistemas 29 1.6.1 Sistemas com e sem memória Um sistema é dito sem memória se sua saída para cada valor da variável independente em um dado instante é depende da entrada somente naquele mesmo instante. Por exemplo, o sistema descrito pela relação y[n] = (2x[n] − x 2[n])2 (1.90) é sem memória, pois o valor de y[n] em qualquer instante particular n0 depende somente do valor de x[n] naquele mesmo instante. De forma semelhante, um resistor é um sistema sem memória; sendo a entrada x(t) tida como a corrente e a tensão tida como a saída y(t), a relação entra- da-saída do resistor é y(t) = Rx(t), (1.91) em que R é a resistência. Um sistema sem memória par- ticularmente simples é o sistema identidade cuja saída é idêntica à entrada. Ou seja, a relação entrada-saída para o sistema identidade de tempo contínuo é y(t) = x(t), e a relação correspondente de tempo discreto é y[n] = x[n]. Um exemplo de sistema de tempo discreto com me- mória é um acumulador ou somador y n x k k n [ ] [ ]= =−∞ ∑ , (1.92) e um segundo exemplo seria o atracador y[n] = x[n − 1]. (1.93) Um capacitor é um exemplo de sistema de tempo contí- nuo com memória, pois se a entrada é tida como a cor- rente, e a saída é a tensão, então y t C x d t ( ) ( )= −∞∫ 1 τ τ , (1.94) sendo C a capacitância. Em linhas gerais, o conceito de memória em um sistema corresponde à presença de um mecanismo que retém ou guarda a informação sobre os valores de entra- da em instantes que não o atual. Por exemplo, o atraso na Equação 1.93 deve reter ou guardar o valor prece- dente da entrada. Da mesma maneira, o acumulador na Equação 1.92 deve 'lembrar-se' ou guardar a informação sobre entradas passadas. Particularmente, o acumulador computa a soma cumulativa de todas as entradas até o instante atual e, portanto, em cada instante do tempo, o acumulador adiciona o valor de entrada atual ao valor precedente da soma cumulativa. Em outras palavras, a relação entre a entrada e a saída de um acumulador pode ser descrita como y n x k x n k n [ ] [ ] [ ]= + =−∞ − ∑ 1 , (1.95) ou, de maneira equivalente, y[n] = y[n − 1] + x[n]. (1.96) Representado na forma da última equação, para obter a saída do instante corrente n, o acumulador deve lembrar- -se do somatório dos valores de entrada anteriores, que é exatamente o valor precedente da saída do acumulador. Em muitos sistemas físicos, a memória está dire- tamente associada ao armazenamento de energia. Por exemplo, o capacitor na Equação 1.94 armazena energia acumulando carga elétrica, representada como a integral da corrente. Portanto, o circuito RC simples no Exem- plo 1.8 e na Figura 1.1 tem memória fisicamente ar- mazenada no capacitor. Do mesmo modo, o automóvel na Figura 1.2 tem memória armazenada em sua energia cinética. Em sistemas de tempo discretos implementa- dos com computadores ou microprocessadores digitais, a memória é tipicamente associada, de forma direta, aos registros de armazenamento que retêm valores entre os pulsos do relógio. Apesar de o conceito de memória em um sistema geralmente sugerir o armazenamento de valores passados de entrada e de saída, nossa definição formal também nos leva a nos referirmos a um sistema como tendo memória se a saída corrente for dependente de valores futuros da entrada e da saída. Apesar de sistemas com essa dependên- cia de valores futuros poderem, a princípio, não parecer naturais, eles, na verdade, formam uma importante clas- se de sistemas, como discutiremos adiante na Seção 1.6.3. 1.6.2 Sistemas inversos e invertibilidade Dizemos que um sistema é invertível se entradas dis- tintas levam a saídas distintas. Conforme a Figura 1.45(a) para o caso do tempo discreto, se um sistema é invertí- vel, então um sistema inverso existe de modo que, quan- do colocado em cascata com o sistema original, produz uma saída w[n] igual à entrada x[n] do primeiro sistema. Portanto, a interconexão em série na Figura 1.45(a) tem uma relação entrada-saída total que é a mesma do siste- ma identidade. Um exemplo de um sistema invertível de tempo contínuo é y(t) = 2x(t), (1.97) 32 Sinais e sistemas é, x[0] = um montante positivo) e não houver retiradas posteriores, o depósito crescerá todos os meses sem limite por causa do efeito composto do pagamento de juros. Também há inúmeros exemplos de sistemas está- veis. A estabilidade dos sistemas físicos geralmente resul- ta da presença de mecanismos que dissipam energia. Por exemplo, assumindo valores positivos para os compo- nentes no circuito RC simples do Exemplo 1.8, o resistor dissipa energia, e esse circuito é um sistema estável. O sistema no Exemplo 1.9 também é estável por causa da dissipação de energia por meio do atrito. Os exemplos anteriores ajudam-nos a compreender o conceito de estabilidade. Mais formalmente, se a en- trada para um sistema estável é limitada (isto é, se seu módulo não cresce sem limites), então a saída também deve ser limitada e, portanto, não pode divergir. Esta é a definição de estabilidade que usaremos em todo o livro. Por exemplo, considere a aplicação de uma força cons- tante f(t) = F ao automóvel da Figura 1.2, com o veí- culo inicialmente em repouso. Nesse caso, a velocidade do carro aumentará, mas não sem limite, pois a força de retardo por atrito também aumenta com a velocidade. Na verdade, a velocidade continuará crescendo até que a força de atrito entre em equilíbrio exato com a força aplicada; então, a partir da Equação 1.84, vemos que esse valor da velocidade terminal V deve satisfazer ρ m V m F= 1 , (1.107) isto é, V F = ρ . (1.108) Como outro exemplo, considere o sistema de tempo discreto definido pela Equação 1.104 e suponha que a entrada x[n] seja limitada em módulo por um número, digamos, B, para todos os valores de n. Então, o maior valor possível para o módulo de y[n] também é B, porque y[n] é a média de um conjunto finito de valores da en- trada. Portanto, y[n] é limitado e o sistema é estável. Por outro lado, considere o acumulador descrito pela Equa- ção 1.92. Ao contrário do sistema na Equação 1.104, esse sistema soma todos os valores passados da entrada em vez de apenas um conjunto finito de valores, e o sistema é instável, pois a soma pode crescer continuamente mesmo se x[n] for limitado. Por exemplo, se a entrada para o acu- mulador for um degrau unitário u[n], a saída será y n u k n u n k n [ ] [ ] ( ) [ ]= = + =−∞ ∑ 1 . Ou seja, y[0] = 1, y[1] = 2, y[2] = 3 e assim por diante, e y[n] cresce sem limite. Exemplo 1.13 Para verificarmos se um sistema é instável quando suspeitamos disso, basta usar a estratégia útil de procurar por uma entrada limitada específica que leva a uma saída ili- mitada. Encontrar um exemplo desse tipo permite-nos con- cluir que o sistema é instável. Se tal exemplo não existe ou é difícil de ser encontrado, devemos verificar a estabilidade usando um método que não utiliza exemplos específicos de sinais de entrada. Para ilustrar essa abordagem, vamos veri- ficar a estabilidade de dois sistemas, S1: y(t) = tx(t) (1.109) e S2: y(t) = e x(t). (1.110) Procurando um contraexemplo específico para refutar a es- tabilidade, podemos tentar entradas limitadas simples, como uma constante ou um degrau unitário. Para o sistema S1 na Equação 1.109, uma entrada constante x(t) = 1 resulta em y(t) = t, que é ilimitado, pois não importa que constan- te escolhamos, |y(t)| excederá essa constante para algum t. Concluímos que o sistema S1 é instável. Para o sistema S2, que é estável, seríamos incapazes de encontrar uma entrada limitada que resultasse em uma saída ilimitada. Então, devemos verificar que todas as entra- das limitadas resultam em saídas limitadas. Especificamente, suponhamos que B seja um número positivo arbitrário, e que x(t) seja um sinal arbitrário limitado por B; ou seja, não estamos supondo nada sobre x(t) exceto que x t B( ) < , (1.111) ou −B < x(t) < B, (1.112) para todo t. Usando a definição de S2 na Equação 1.110, vemos que se x(t) satisfaz a Equação 1.111, então y(t) deve satisfazer e y t eB B− < <( ) . (1.113) Concluímos que, se qualquer entrada para S2 é limitada por um número positivo arbitrário B, estará garantido que a saída correspondente é limitada por eB. Portanto, S2 é estável. Os conceitos e as propriedades dos sistemas que apre- sentamos até agora nesta seção são de grande importân- cia, e examinaremos algumas delas mais detalhadamente neste livro. No entanto, ainda faltam duas propriedades adicionais — invariância no tempo e linearidade — que representam um papel fundamental nos próximos capí- Sinais e sistemas 33 tulos; no restante desta seção apresentaremos discussões iniciais desses conceitos muito importantes. 1.6.5 Invariância do tempo Conceitualmente, um sistema é invariante no tempo se o comportamento e as características do sistema são fixos ao longo do tempo. Por exemplo, o circuito RC da Figura 1.1 é invariante no tempo se os valores de resis- tência e capacitância R e C são constantes no decorrer do tempo: Esperaríamos obter amanhã exatamente os mesmos resultados de um experimento que fizemos hoje com esse circuito. Por outro lado, se os valores de R e C são modificados ou flutuam ao longo do tempo, então esperamos que os resultados de nosso experimento de- pendam do instante em que ele é executado. De manei- ra semelhante, se o coeficiente de atrito b e a massa m do automóvel na Figura 1.2 são constantes, esperamos que o veículo responda da mesma forma independente- mente de quando o dirigimos. Por outro lado, se enche- mos o porta-malas do automóvel com malas pesadas em um dia, e assim aumentarmos m, esperamos que o carro se comporte de maneira diferente em outros instantes, quando não estiver extremamente carregado. A propriedade da invariância no tempo pode ser descrita de forma bem simples nos termos da linguagem de sinais e sistemas que apresentamos. Especificamente, um sistema é invariante no tempo se um deslocamento no tempo do sinal de entrada resulta em um deslocamen- to no tempo idêntico no sinal de saída. Ou seja, se y[n] é a saída de um sistema invariante no tempo e de tempo discreto quando x[n] é a entrada, então y[n − n0] é a saída quando x[n − n0] é aplicado. No tempo contínuo, sen- do y(t) a saída correspondente à entrada x(t), um sistema invariante no tempo terá y(t − t0) como saída quando x(t − t0) for a entrada. Para ver como determinar se um sistema é ou não invariante no tempo, e para compreender um pouco mais essa propriedade, considere os seguintes exemplos: Exemplo 1.14 Considere o sistema de tempo contínuo definido por y(t) = sen[x(t)]. (1.114) Para verificar se esse sistema é invariante no tempo, devemos determinar se a propriedade de invariância no tempo é vá- lida para qualquer entrada e para qualquer deslocamento no tempo t0. Portanto, consideremos x1(t) como uma entrada arbitrária para esse sistema, e seja y1(t) = sen[x1(t)] (1.115) a saída correspondente. Então, consideremos uma segun- da entrada obtida pelo deslocamento invariante x1(t) no tempo: x2(t) = x1(t − t0). (1.116) A saída correspondente a essa entrada é y2(t) = sen[x2(t)] = sen[x1(t − t0)]. (1.117) De modo semelhante, a partir da Equação 1.115, y1(t − t0) = sen[x1(t − t0)]. (1.118) Comparando as equações 1.117 e 1.118, vemos que y2(t) = y1(t − t0) e que, portanto, esse sistema é invariante no tempo. Exemplo 1.15 Como segundo exemplo, considere o sistema de tem- po discreto y[n] = nx[n]. (1.119) Trata-se de um sistema variante no tempo, fato que pode ser verificado usando-se o mesmo procedimento formal utiliza- do no exemplo anterior (ver Problema 1.28). No entanto, quando se suspeita que um sistema seja variante no tempo, um método bastante útil para tirar a dúvida é procurar um contraexemplo — isto é, usar nossa intuição para encontrar um sinal de entrada para o qual a condição de invariân- cia no tempo seja violada. Em particular, o sistema neste exemplo representa um sistema com um ganho variante no tempo. Por exemplo, se sabemos que o valor corrente da en- trada é 1, não podemos determinar o valor corrente de saída sem conhecer o tempo corrente. Consequentemente, considere o sinal de entrada x1[n] =δ[n], que produz uma saída y1[n] idêntica a 0 (já que n δ[n] = 0). No entanto, a entrada x2[n] = δ[n − 1] gera a saída y2[n] = nδ[n − 1] = δ[n − 1]. Dessa forma, enquanto x2[n] é uma versão deslocada de x1[n], y2[n] não é uma ver- são deslocada de y1[n]. Enquanto o sistema no exemplo anterior tem um ga- nho variante no tempo e, como resultado, é um sistema variante no tempo, o sistema na Equação 1.97 tem um ganho constante e, de fato, é invariante no tempo. Outros exemplos de sistemas invariantes no tempo são dados pe- las equações 1.91 a 1.104. No exemplo seguinte é apresen- tado um sistema variante no tempo de tempo contínuo. Exemplo 1.16 Considere o sistema y(t) = x(2t). (1.120) 34 Sinais e sistemas Este sistema representa uma mudança de escala no tem- po. Ou seja, y(t) é uma versão comprimida no tempo (por um fator de 2) de x(t). Intuitivamente, então, todo deslo- camento no tempo na entrada também será comprimido por um fator de 2, e é por essa razão que o sistema não é invariante no tempo. Para demonstrar isso por meio de um contraexemplo, considere a entrada x1(t) mostrada na Figura 1.47(a) e a saída resultante y1(t) representada na Fi- gura 1.47(b). Se deslocamos a entrada de 2 — isto é, consi- deramos x2(t) = x1(t − 2), como mostra a Figura 1.47(c) — obtemos a saída resultante y2(t) = x2(2t) mostrada na Figura 1.47(d). Comparando as figuras 1.47(d) e (e), notamos que y2(t) ≠ y1(t − 2), de modo que o sistema não é invariante no tempo. (De fato, y2(t) = y1(t − 1), portanto o deslocamento no tempo da saída só tem metade do tamanho que deve- ria ter para a invariância no tempo devido à compressão no tempo causada pelo sistema.) 1.6.6 Linearidade Um sistema linear, de tempo contínuo ou tempo dis- creto, é um sistema que tem a importante propriedade de superposição: se uma entrada consiste de uma soma ponderada de diversos sinais, então a saída é a superposi- ção — isto é, a soma ponderada — das respostas do sistema a cada um desses sinais. Mais precisamente, suponhamos que y1(t) seja a resposta de um sistema de tempo contínuo a uma entrada x1(t), e que y2(t) seja a saída correspondente à entrada x2(t). Então, o sistema é linear se: 1. A resposta a x1(t) + x2(t) é y1(t) + y2(t). 2. A resposta a ax1(t) é ay1(t), em que a é qualquer constante complexa. A primeira das duas propriedades é conhecida como propriedade da aditividade; a segunda é conhecida como pro- priedade da mudança de escala ou homogeneidade. Embo- ra tenhamos feito essa descrição usando sinais de tempo contínuo, a mesma definição é válida em tempo discre- to. Os sistemas especificados pelas equações 1.91 a 1.100, 1.102 a 1.104 e 1.119 são lineares, enquanto os definidos pelas equações 1.101 e 1.114 são não lineares. Note-se que um sistema pode ser linear sem ser invariante no tempo, como na Equação 1.119, e pode ser invariante no tem- po sem ser linear, como nas equações 1.101 e 1.114. As duas propriedades definindo um sistema linear podem ser combinadas em uma única relação: tempo contínuo: ax1(t) + bx2(t) → ay1(t) + by2(t), (1.121) tempo discreto: ax1[n] + bx2[n] → ay1[n] + by2[n]. (1.122) Aqui, a e b são constantes complexas quaisquer. Além disso, torna-se bastante claro, a partir da definição de li- nearidade, que se xk[n], k = 1, 2, 3,..., é um conjunto de entradas para um sistema linear de tempo discreto com saídas correspondentes yk[n], k = 1, 2, 3,..., então a res- posta a uma combinação linear dessas entradas dada por x n a x n a x n a x n a x n k k k [ ] [ ] [ ] [ ] [ ] = = + + + ∑ 1 1 2 2 3 3 … (1.123) é y n a y n a y n a y n a y n k k k [ ] [ ] [ ] [ ] [ ] = = + + + ∑ 1 1 2 2 3 3 … (1.124) Esse fato bem importante é conhecido como propriedade de superposição, que vale para sistemas lineares de tempo discreto e de tempo contínuo. Uma consequência direta da propriedade de super- posição é que, para os sistemas lineares, uma entrada que é zero o tempo todo resulta em uma saída que é zero o tempo todo. Por exemplo, se x[n] → y[n], então a pro- priedade de homogeneidade nos diz que 0 = 0 ⋅ x[n] → 0 ⋅ y[n] = 0. (1.125) x1(t) 2 2 t 1 (a) y1(t) 1 1 t 1 (b) x2(t)  x1(t2) 0 4 t 1 (c) y1(t2) 1 3 t 1 (e) y2(t) 0 2 t 1 (d) Figura 1.47 (a) Entrada x1(t ) para o sistema do Exemplo 1.16; (b) saída y1(t ) correspondente a x1(t ); (c) entrada deslocada x2(t ) = x1(t − 2); (d) saída y2(t ) correspondente a x2(t ); (e) sinal deslocado y1 (t – 2). Note- se que y2(t ) ≠ y1(t − 2), mostrando que o sistema não é invariante no tempo. Sinais e sistemas 37 1 2 3 2 − j , 1 + j, (1 − j)2, j(1 − j), (1 + j)/(1 − j), ( )/( ).2 2 1 3+ +j j 1.3 Determine os valores de P e E para cada um dos se- guintes sinais: (a) x1(t) = e −2tu(t) (b) x2(t) = e j(2t + π/4) (c) x3(t) = cos(t) (d) x n u nn1 1 2 [ ] ( ) [ ]= (e) x2[n] = e j(π/2n + π/8) (f) x n n3[ ] = cos ( π 4 ) 1.4 Suponhamos que x[n] seja um sinal com x[n] = 0 para n < − 2 e n > 4. Para cada um dos sinais dados a seguir, determine os valores de n para os quais os sinais são garantidamente iguais a zero. (a) x[n − 3] (b) x[n + 4] (c) x[− n] (d) x[− n + 2] (e) x[− n − 2] 1.5 Suponhamos que x(t) seja um sinal com x(t) = 0 para t < 3. Para os sinais dados a seguir, determine os valores de t para os quais eles são garantidamente iguais a zero. (a) x(1 − t) (b) x(1 − t) + x(2 − t) (c) x(1 − t)x(2 − t) (d) x(3t) (e) x(t/3) 1.6 Determine se cada um dos sinais a seguir é ou não pe- riódico: (a) x1(t) = 2e j(t + π/4)u(t) (b) x2[n] = u[n] + u[− n] (c) x n n k n kk3 4 1 4[ ] { [ ] [ ]}= − − − −=−∞ ∞∑ δ δ 1.7 Para cada um dos sinais dados a seguir, determine to- dos os valores da variável independente para os quais a parte par do sinal seja garantidamente zero. (a) x1[n] = u[n] − u[n − 4] (b) x t t2( ) = sen( 1 2 ) (c) x n u nn3 1 2 3[ ] ) [ – ]= ( (d) x4(t) = e −5tu(t + 2) 1.8 Expresse a parte real dos sinais a seguir na forma Ae −at cos(ωt + φ) sendo A, a, ω e φ números reais com A > 0 e − π < φ ≤ π: (a) x1(t) = −2 (b) x t e t j 2 2 3 2 4( ) cos( )/= +π π (c) x t e t t 3 3( ) ( )= + − sen π (d) x t je j t4 2 100( ) ( )= − + 1.9 Determine se cada um dos sinais é ou não periódico. Se um sinal for periódico, especifique seu período funda- mental. (a) x1(t) = je j10t (b) x2(t) = e(−1 + j)t (c) x3[n] = e j7πn (d) x4[n] = 3e j3π(n + 1/2)/5 (e) x5[n] = 3e j3/5(n + 1/2) 1.10 Determine o período fundamental do sinal x(t) = 2cos(10t + 1) − sen(4t − 1). 1.11 Determine o período fundamental do sinal x[n] = 1 + e j4πn/7 − e j2πn/5. 1.12 Considere o sinal de tempo discreto x n n k k [ ] [ ]= − − − = ∞ ∑1 1 3 δ . Determine os valores dos números inteiros M e n0 de modo que x[n] possa ser expresso como x[n] = u[Mn − n0]. 1.13 Considere o sinal de tempo contínuo x(t) = δ(t + 2) − δ(t − 2). Calcule o valor de E para o sinal y t x d t ( ) ( ) – = ∞∫ τ τ . 1.14 Considere um sinal periódico x t t t ( ) , , = ≤ ≤ − < < ⎧ ⎨ ⎪⎪ ⎩⎪⎪ 1 0 1 2 1 2 com período T = 2. A derivada desse sinal está relacio- nada ao “trem de impulsos” g t t k k ( ) ( )= − =−∞ ∞ ∑ δ 2 com período T = 2. Pode-se perceber que dx t dt A g t t A g t t ( ) ( ) ( )= − + −1 1 2 2 . Determine os valores de A1, t1, A2 e t2. 1.15 Considere um sistema S com entrada x[n] e saída y[n]. Esse sistema é obtido por uma interconexão série de um sistema S1 seguido por um sistema S2. As relações entrada-saída para S1 e S2 são S y n x n x n S y n x n x 1 1 1 1 2 2 2 2 2 4 1 2 1 2 : [ ] [ ] [ ], : [ ] [ ] [ = + − = − + n−3], em que x1[n] e x2[n] representam sinais de entrada. 38 Sinais e sistemas (a) Determine a relação entrada-saída para o sistema S. (b) A relação entrada-saída do sistema S muda se a ordem de conexão em série de S1 e S2 for invertida (isto é, se S2 vier depois de S1)? 1.16 Considere um sistema de tempo discreto com entrada x[n] e saída y[n]. A relação entrada-saída desse sistema é y[n] = x[n]x[n − 2]. (a) O sistema é sem memória? (b) Determine a saída do sistema quando a entrada for Aδ[n], em que A é um número complexo ou real qualquer. (c) O sistema é invertível? 1.17 Considere um sistema de tempo contínuo com entrada x(t) e saída y(t) relacionado por y(t) = x(sen(t)). (a) O sistema é causal? (b) O sistema é linear? 1.18 Considere um sistema de tempo discreto com entrada x[n] e saída y[n] relacionadas por y n x k k n n n n [ ] [ ]= = − + ∑ 0 0 , sendo n0 um número inteiro positivo finito. (a) O sistema é linear? (b) O sistema é invariante no tempo? (c) Sabendo que x[n] é limitado por um número intei- ro finito B (isto é, | x[n]| < B para todo n), podemos demonstrar que y[n] é limitado por um número finito C. Concluímos que o sistema dado é estável. Expresse C em termos de B e n0. 1.19 Para cada uma das relações entrada-saída a seguir, de- termine se o sistema correspondente é linear, invarian- te no tempo ou ambos. (a) y(t) = t2x(t − 1) (b) y[n] = x2[n − 2] (c) y[n] = x[n + 1] − x[n − 1] (d) y[n] = {x(t)} 1.20 Um sistema linear de tempo contínuo S com entrada x(t) e saída y(t) possui os seguintes pares entrada-saída: x t e y t e x t e y t e j t S j t j t S j t ( ) ( ) , ( ) ( )– = → = = → = − 2 3 2 3 . (a) Se x1(t) = cos(2t), determine a saída corresponden- te y1(t) para o sistema S. (b) Se x t t2 1 22( ) cos( ( ))= − , determine a saída corres- pondente y2(t) para o sistema S. Problemas básicos 1.21 Um sinal de tempo contínuo x(t) é mostrado na Fi- gura P1.21. Esboce e coloque a escala cuidadosamente para cada um dos seguintes sinais: (a) x(t − 1) (b) x(2 − t) (c) x(2t + 1) (d) x t( )4 2 − (e) [x(t) + x(−t)]u(t) (f) x t t t( )[ ( ) ( )]δ δ+ − −3 2 3 2 10 1 1 1 2 2 t 2 x(t) Figura P1.21 1.22 Um sinal de tempo discreto é mostrado na Figura P1.22. Esboce e coloque a escala cuidadosamente para cada um dos seguintes sinais: (a) x[n − 4] (b) x[3 − n] (c) x[3n] (d) x[3n + 1] (e) x[n]u[3 − n] (f) x[n − 2]δ[n − 2] (g) 1 2 1 2 1x n x nn[ ] ( ) [ ]+ − (h) x[(n − 1)2] 1 1 n1 1 2 234 0 2 3 4 51 1 2 1 2 Figura P1.22 Sinais e sistemas 39 1.23 Determine e esboce as partes par e ímpar dos sinais re- presentados na Figura P1.23. Coloque cuidadosamente escala em seus esboços. 1 (a) (b) (c) 1 1 2 1 2 t x(t) 1 t1 x(t) 1 t12 x(t) A linha x(t)  2t para t  0 A linha x(t)  t para t  0 Figura P1.23 1.24 Determine e esboce a parte par e a parte ímpar dos si- nais representados na Figura P1.24. Coloque cuidado- samente escala em seus esboços. 1 3 2 1 1 1 1 n0 1 2 3 n (a) 2 4 3 1 n0 1 (c) (b) 02 7 Figura P1.24 1.25 Determine se os sinais de tempo contínuo a seguir são pe- riódicos. Se o sinal for periódico, determine seu período fundamental. (a) x t t( ) cos( )= +3 4 3 π (b) x t e j t( ) ( )= −π 1 (c) x t t( ) [cos( )]= −2 3 2π (d) x(t) = {cos(4πt)u(t)} (e) x(t) = {sen(4πt)u(t)} (f) x t e u t nt n n ( ) ( )( )= −− − =−∞ ∞ ∑ 2 2 1.26 Determine se os sinais de tempo discreto a seguir são pe- riódicos. Se o sinal for periódico, determine seu perío- do fundamental. (a) x n n[ ] ( )= +sen 67 1 π (b) x n n[ ] cos( )= −8 π (c) x n n[ ] cos( )= π 8 2 (d) x n n n[ ] cos( )cos( )= π π 2 4 (e) x n n n n[ ] cos( ) ( ) cos( )= + − +2 2 4 8 2 6 π π π πsen 1.27 Neste capítulo, apresentamos diversas propriedades ge- rais dos sistemas. De modo particular, um sistema pode ou não ser: (1) Sem memória (2) Invariante no tempo (3) Linear (4) Causal (5) Estável Determine quais dessas propriedades são válidas e quais não são para cada um dos sistemas de tempo contínuo a seguir. Justifique suas respostas. Em cada exemplo, y(t) representa a saída do sistema, e x(t) é a entrada do sistema. (a) y(t) = x(t − 2) + x(2 − t) (b) y(t) = [cos(3t)]x(t) (c) y t x d t( ) ( )= −∞∫ τ τ 2 (d) y t t x t x t t ( ) , ( ) ( – ), = < + ≥ ⎧ ⎨ ⎪⎪ ⎩⎪⎪ 0 0 2 0 (e) y t x t x t x t x t ( ) , ( ) ( ) ( – ), ( ) = < + ≥ ⎧ ⎨ ⎪⎪ ⎩⎪⎪ 0 0 2 0 (f) y(t) = x(t/3) (g) y t dx t dt ( ) ( ) = 1.28 Determine quais das propriedades listadas no Problema 1.27 são válidas e quais não são para cada um dos sis- temas de tempo discreto a seguir. Justifique suas res- postas. Em cada exemplo, y(t) representa a saída do sistema e x(t) é a entrada do sistema. (a) y[n] = x[−n] (b) y[n] = x[n − 2] − 2x[n − 8] (c) y[n] = nx[n] (d) y[n] = {x[n − 1]} 42 Sinais e sistemas (a) Mostre que δ δ( ) ( )2 1 2 t t= . Dica: Examine δΔ(t). (Veja Figura 1.34.) (b) Na Seção 1.4, definimos o impulso unitário de tempo contínuo como o limite do sinal δΔ(t). De forma mais precisa, definimos diversas proprieda- des de δ(t) examinando as propriedades correspon- dentes de δΔ(t). Por exemplo, como o sinal u t d t Δ Δ( ) ( )= −∞∫ δ τ τ converge para o degrau unitário u t u t( ) lim ( )= Δ→ Δ0 , (P1.38–1) podemos interpretar δ(t) por meio da equação u t d t ( ) ( )= −∞∫ δ τ τ ou entender δ(t) como a derivada formal de u(t). Esse tipo de discussão é importante porque estamos de fato tentando definir δ(t) por meio de suas propriedades em vez de especificar seu valor para cada t, o que seria impossível. No Capítulo 2, apresentaremos uma caracterização bem simples do comportamento do impulso unitário que é ex- tremamente útil no estudo dos sistemas lineares invariantes no tempo. Neste momento, no entanto, vamos nos concentrar na demonstração de que o essencial no uso do impulso unitário é compreen- der como ele se comporta. Para isso, considere os seis sinais representados na Figura P1.38. Mostre que cada um “se comporta como um impulso”, quando Δ → 0, no sentido de que se considerarmos u t r di i t Δ Δ−∞ = ∫( ) ( )τ τ, então lim ( ) ( ) Δ→ Δ = 0 u t u ti . Em cada caso, esboce e coloque a escala cuidadosa- mente para o sinal uiΔ(t). Note que r rΔ Δ= = Δ 2 40 0 0( ) ( ) para todo . Dessa forma, não basta somente definir ou con- siderar δ(t) como zero para t ≠ 0 e infinito para t = 0. Em vez disso, são as propriedades como as da Equação P1.38-1 que definem o impulso. Na Seção 2.5 definiremos toda uma classe de sinais conhecidos como funções de singularidade, que são relacionadas ao impulso unitário e que também são definidas em termos de suas propriedades, e não de seus valores.  t (a) (b) 2 2 1   2  r1 (t)  t 1  r2 (t)  t (c) (d)    1  1  r3 (t)  t 1  r4 (t)  t (e) (f)     2  r5 (t)  2 t r6 (t) 1 e|t | / 1 2e Figura P1.38 1.39 O papel de u(t), δ(t) e outras funções de singularidade no estudo de sistemas lineares invariantes no tempo é o da idealização de um fenômeno físico, e, como veremos, o uso dessas idealizações permite-nos obter uma repre- sentação extremamente importante e muito simples de tais sistemas. No entanto, precisamos tomar cuidado ao usar funções de singularidade. Particularmente, deve- mos lembrar que elas são idealizações e que, portanto, sempre que efetuamos um cálculo usando essas pro- priedades, estamos assumindo implicitamente que o cálculo representa uma descrição precisa do comporta- mento dos sinais que elas almejam idealizar. Para ilus- trar, considere a equação x(t)δ(t) = x(0)δ(t). (P1.39-1) Essa equação é baseada na observação de que x(t)δΔ(t) ≈ x(0)δΔ(t). (P1.39-2) Sendo assim, calcular o limite dessa relação produz a equação idealizada dada pela Equação P1.39-1. No en- tanto, um exame mais cuidadoso da dedução da Equação P1.39-2 mostra que esta equação realmente só faz sentido Sinais e sistemas 43 se x(t) é contínuo em t = 0. Caso contrário, não teremos x(t) x(0) para um t pequeno. Para esclarecer esse ponto, considere o sinal degrau unitário u(t). Lembre-se da Equação 1.70, onde u(t) = 0 para t < 0 e u(t) = 1 para t > 0, mas que seu valor em t = 0 não é definido. [Note-se, por exemplo, que uΔ(0) = 0 para todo Δ, enquanto u 1(0) = 12 (do Pro- blema 1.38(b)).] O fato de u(0) não ser definido não é particularmente problemático, já que os cálculos que fazemos usando u(t) não se baseiam em uma escolha específica para u(0). Por exemplo, se f(t) é um sinal contínuo em t = 0, então o valor f u d( ) ( )σ σ σ −∞ +∞ ∫ não depende de uma escolha para u(0). Por outro lado o fato de u(0) ser indefinido é significativo porque im- plica que certos cálculos envolvendo funções de singu- laridade sejam indefinidos. Tente definir um valor para o produto u(t)δ(t). Para ver que isso não pode ser definido, mostre que lim[ ( ) ( )] Δ→ Δ = 0 0u t tδ , mas lim[ ( ) ( )] ( ) Δ→ Δ Δ = 0 1 2 u t t tδ δ . Em geral, podemos definir o produto de dois sinais sem nenhuma dificuldade, desde que os sinais não contenham singularidades (descontinuidades, impulsos ou outras singularidades introduzidas na Seção 2.5) cujas localizações coincidam. Quando as localizações coincidem, o produto é indefinido. Como exemplo, mostre que o sinal g t u t d( ) ( ) ( )= − −∞ +∞ ∫ τ δ τ τ é idêntico a u(t), ou seja, é 0 para t < 0, igual a 1 para t > 0 e indefinido para t = 0. 1.40 (a) Mostre que se um sistema é aditivo ou homogê- neo, ele tem a propriedade de que se a entrada é idêntica a zero, então a saída é idêntica a zero. (b) Determine um sistema (de tempo contínuo ou de tempo discreto) que não seja aditivo nem homogê- neo, mas que tenha uma saída nula se a entrada for idêntica a zero. (c) A partir do item (a), é possível concluir que, se a entrada para um sistema linear é zero entre os instantes t1 e t2 em tempo contínuo ou entre os ins- tantes n1 e n2 em tempo discreto, então sua saída deve ser igual a zero entre esses mesmos tempos? Explique sua resposta. 1.41 Considere um sistema S com entrada x[n] e saída y[n] relacionadas por y[n] = x[n]{g[n] + g[n − 1]}. (a) Se g[n] = 1 para todo n, mostre que S é invariante no tempo. (b) Se g[n] = n, mostre que S não é invariante no tempo. (c) Se g[n] = 1 + (− 1)n, mostre que S é invariante no tempo. 1.42 (a) A declaração a seguir é verdadeira ou falsa? A interconexão em série de dois sistemas lineares invariantes no tempo é em si um sistema linear in- variante no tempo. Justifique sua resposta. (b) A declaração a seguir é verdadeira ou falsa? A interconexão em série de dois sistemas não linea- res é em si não linear. Justifique sua resposta. (c) Considere três sistemas com as seguintes relações entrada-saída: Sistema 1 par ímpar : [ ] [ / ], , y n x n n n = ⎧ ⎨ ⎪⎪ ⎩⎪⎪ 2 0 , Sistema 2: [ ] [ ] [ ] [ ]y n x n x n x n= + − + − 1 2 1 1 4 2 , Sistema 3: y[n] = x[2n]. Suponha que esses sistemas sejam conectados em série conforme a representação da Figura P1.42. Encontre a relação entrada-saída para o sistema interconectado como um todo. Trata-se de um sis- tema linear? Ele é invariante no tempo? x[n] y[n]Sistema 1 Sistema 2 Sistema 3 Figura P1.42 1.43 (a) Considere um sistema invariante no tempo com entrada x(t) e saída y(t). Mostre que se x(t) é perió- dico com período T, então y(t) também o é. Mostre que o resultado análogo também é válido em tem- po discreto. (b) Dê um exemplo de um sistema invariante no tem- po e um sinal de entrada não periódico x(t) de modo que a saída correspondente y(t) seja periódica. 1.44 (a) Mostre que a causalidade para um sistema linear de tempo contínuo é equivalente à seguinte decla- ração: Para qualquer tempo t0 e qualquer entrada x(t) de modo que x(t) = 0 para t < t0, a saída correspon- dente y(t) deve ser zero para t < t0. A afirmação análoga pode ser feita para um siste- ma linear de tempo discreto. 44 Sinais e sistemas (b) Encontre um sistema não linear que satisfaça a condição precedente, mas que não seja causal. (c) Encontre um sistema não linear que seja causal, mas não satisfaça a condição. (d) Mostre que a invertibilidade para um sistema linear de tempo discreto equivale à seguinte declaração: A única entrada que produz y[n] = 0 para todo n é x[n] = 0 para todo n. A declaração análoga também é verdadeira para um sistema linear de tempo contínuo. (e) Encontre um sistema não linear que satisfaça a condição do item (d), mas que não seja invertível. 1.45 No Problema 1.37 apresentamos o conceito das fun- ções de correlação. É importante calcular na prática a função de correlação φhx(t), em que h(t) é um dado sinal fixo, mas x(t) pode ser qualquer um de uma grande variedade de sinais. Nesse caso, o que se faz é projetar um sistema S com entrada x(t) e saída φhx(t). (a) S é linear? S é invariante no tempo? S é causal? Explique suas respostas. (b) Alguma das suas respostas de (a) muda se conside- ramos φxh(t) como saída em vez de φhx(t)? 1.46 Considere o sistema com realimentação da Figura P1.46. Suponha que y[n] = 0 para n < 0. (a) Esboce a saída quando x[n] = δ[n]. (b) Esboce a saída quando x[n] = u[n].    x[n] e[n] y[n]  e[n 1] y[n] Figura P1.46 1.47 (a) Suponhamos que S represente um sistema linear incremental, e que x1[n] seja um sinal de entrada arbitrário para S com saída correspondente y1[n]. Considere o sistema ilustrado na Figura P1.47(a). Mostre que esse sistema é linear e que, de fato, a relação entrada-saída geral entre x[n] e y[n] não depende da escolha particular de x1[n]. (b) Use o resultado de (a) para mostrar que S pode ser representado na forma mostrada na Figura 1.48. (c) Quais dos sistemas a seguir são lineares incre- mentais? Justifique suas respostas. Se um siste- ma for linear incremental, identifique o sistema linear L e a resposta à entrada nula y0[n] ou y0(t) para a representação do sistema como mostrado na Figura 1.48. (i) (ii) y n n x n x n y n n n n [ ] [ ] [ ] [ ] / , ( )/ = + + + = − 2 4 2 1 2 par + ⎧ ⎨ ⎪⎪⎪⎪ ⎩ ⎪⎪⎪⎪ =−∞ − ∑ x k n k n [ ], ( )/1 2 ímpar (iii) y n x n x n x x n x n x [ ] [ ] [ ] , [ ] [ ] [ ] , [ = − − + ≥ − − − 1 3 0 0 1 3 se se 0 0]< ⎧ ⎨ ⎪⎪ ⎩⎪⎪ (iv) O sistema representado na Figura P1.47(b). (v) O sistema representado na Figura P1.47(c).    x[n] y[n] y1[n]x1[n] S (a) (b) (c) t x(t) w(t) y(t)  dw(t) dt y(t) cos (n)     v[n] z[n] w[n] x[n] y[n] z[n]  v2[n] w[n]  x2[n] Figura P1.47 (d) Suponha que um sistema específico linear incre- mental tenha uma representação como mostra a Figura 1.48, com L indicando o sistema linear e y0[n] a resposta à entrada nula. Mostre que S é invariante no tempo se e somente se L for um sistema invariante no tempo e y0[n] for constante. Revisão matemática O número complexo z pode ser expresso de várias for- mas. A forma cartesiana ou retangular para z é z = x + jy, em que j = −1 e x e y são números reais respectivamente chamados de parte real e parte imaginária de z. Como mos- tramos anteriormente, usaremos com frequência a notação x = {z}, y = {z}. C ap ít u lo 2 Sistemas lineares invariantes no tempo 2.0 Introdução Na Seção 1.6 apresentamos e discutimos diversas propriedades básicas dos sistemas. Duas delas, a invariân- cia no tempo e a linearidade, têm um papel fundamental na análise dos sinais e sistemas por duas razões princi- pais. A primeira diz respeito ao fato de muitos processos físicos terem essas propriedades e, por isso, poderem ser modelados como sistemas lineares invariantes no tempo (LIT). Além disso, os sistemas LIT podem ser analisados de forma detalhada, facilitando a compreensão de suas propriedades e também fornecendo um conjunto de fer- ramentas poderosas que formam a base da análise de sinais e sistemas. Um dos objetivos principais deste livro é desenvol- ver uma compreensão dessas propriedades e ferramentas e apresentar várias das importantes aplicações nas quais essas ferramentas são usadas. Neste capítulo, começamos o desenvolvimento mostrando e examinando uma re- presentação fundamental e extremamente útil para os sistemas LIT e apresentando uma classe importante des- ses sistemas. Uma das principais razões de os sistemas LIT serem passíveis de análise é o fato de qualquer sistema desse tipo ter a propriedade de superposição descrita na Seção 1.6.6. Como consequência, se pudermos representar a entrada de um sistema LIT em termos de uma combinação linear de um conjunto de sinais básicos, então podemos usar a su- perposição para computar a saída do sistema em termos de suas respostas a esses sinais básicos. Como veremos nas próximas seções, uma das carac- terísticas importantes do impulso unitário, tanto de tem- po discreto como de tempo contínuo, é o fato de sinais bastante gerais poderem ser representados como combi- nações lineares de impulsos deslocados. Esse fato, junta- mente com as propriedades de superposição e invariância no tempo, permite que desenvolvamos uma caracteriza- ção completa de qualquer sistema LIT em termos de sua resposta a um impulso unitário. Tal representação, cha- mada soma de convolução no caso de tempo discreto e integral de convolução em tempo contínuo, fornece uma grande facilidade analítica para lidar com os sistemas LIT. Dando continuidade ao nosso desenvolvimento da soma de convolução e da integral de convolução, usamos essas caracterizações para examinar algumas das outras pro- priedades dos sistemas LIT. Então, consideramos a classe dos sistemas de tempo contínuo descritos por equações diferenciais lineares com coeficientes constantes e sua correspondente de tempo discreto, a classe de sistemas descrita por equações de diferenças lineares com coefi- cientes constantes. Nos capítulos subsequentes, teremos várias oportunidades de examinar essas duas classes mui- to importantes de sistemas. Por fim, estudaremos mais uma vez a função impulso unitário de tempo contínuo e vários outros sinais relacionados a ela para que possamos compreender melhor esses sinais idealizados e, especifi- camente, seu uso e interpretação no contexto da análise dos sistemas LIT. 2.1 Sistemas LIT de tempo discreto: a soma de convolução 2.1.1 A representação de sinais de tempo discreto em termos de impulsos A principal ideia para a compreensão de como o impulso unitário de tempo discreto pode ser usado para formar qualquer sinal de tempo discreto é pensar em um sinal de tempo discreto como uma sequência de im- pulsos individuais. Para percebermos como esse quadro intuitivo pode ser transformado em uma representação 48 Sinais e sistemas matemática, considere o sinal x[n] representado na Fi- gura 2.1(a). Nas partes restantes dessa figura, traçamos cinco sequências de impulsos unitários ponderados e deslocados no tempo, nas quais o fator de escla em cada impulso é igual ao valor de x[n] no instante específico em que a amostra unitária ocorre. Por exemplo, x n x n n x n [ ] [ ] [ ], , , [ ] [ − + = − = − ≠ − ⎧ ⎨ ⎪⎪ ⎩⎪⎪ 1 1 1 1 0 1 0 δ δ ] [ ], , , [ ] [ ] [ ], = = ≠ ⎧ ⎨ ⎪⎪ ⎩⎪⎪ − = = x n n x n x n 0 0 0 0 1 1 1 1 δ 0 1, . n ≠ ⎧ ⎨ ⎪⎪ ⎩⎪⎪ Portanto, a soma das cinco sequências na figura é igual a x[n] para – 2 ≤ n ≤ 2. De modo mais geral, ao incluir impulsos adicionais ponderados e deslocados, podemos escrever x n x x x[ ] = ... + [–3] [ + 3] [–2] [ ] + [–1] [δ δ δ+ + 2 + + 1 2 ] + [0] [ ]+ [1] [ – 1] [2] [ ] + [3] [ x x n x n x n δ δ δ δ – – 3] + ... (2.1) Para qualquer valor de n, somente um dos termos do membro direito da Equação 2.1 é diferente de zero, e o peso associado a esse termo é precisamente x[n]. Escrevendo essa soma de forma mais compacta, temos x n x k n k k [ ] [ ] [ ].= − =−∞ +∞ ∑ δ (2.2) Esta expressão corresponde à representação de uma se- quência arbitrária como combinação linear dos impulsos unitários deslocados δ[n – k], em que os pesos nessa com- binação linear são x[k]. Como exemplo, considere x[n] = u[n], o degrau unitário. Nesse caso, como u[k] = 0 para k < 0 e u[k] = 1 para k ≥ 0, a Equação 2.2 torna-se u n n k k [ ] [ ],= − = +∞ ∑δ 0 que é idêntica à expressão deduzida na Seção 1.4. (Ver Equação 1.67.) A Equação 2.2 é chamada de propriedade seletiva do impulso unitário de tempo discreto. Como a se- quência δ[n – k] é diferente de zero somente quando k = n, o somatório do membro direito da Equação 2.2 ‘vasculha’ a sequência de valores x[k] e extrai so- mente o valor correspondente a k = n. Na próxima subseção, exploraremos essa representação dos sinais de tempo discreto para desenvolvermos a representa- ção por soma de convolução para um sistema LIT de tempo discreto. 2.1.2 A resposta ao impulso unitário e a representação por soma de convolução dos sistemas de tempo discreto LIT A importância da propriedade seletiva das equações 2.1 e 2.2 está no fato de que ela representa x[n] como x[n] 023 234 1 2 3 401 1 4 n n 234 1 2 3 40 1 n 234 11 2 3 40 n 24 1 3 (a) x[2] [n  2] x[1] [n  1] x[0] [n] 234 11 2 3 40 n x[1] [n1] 234 11 2 3 40 n x[2] [n2] (b) (c) (d) (e) (f) Figura 2.1 Decomposição de um sinal de tempo discreto em uma soma de impulsos ponderados e deslocados. Sistemas lineares invariantes no tempo 49 uma superposição de versões ponderadas de um con- junto muito simples de funções elementares, impulsos unitários deslocados δ[n – k], sendo que cada um deles é diferente de zero (com valor 1) em um único instante de tempo especificado pelo valor correspondente de k. A resposta de um sistema linear a x[n] será a superposição das respostas ponderadas do sistema a cada um desses impulsos deslocados. Além disso, a propriedade de inva- riância no tempo nos diz que as respostas de um sistema invariante no tempo aos impulsos unitários deslocados no tempo são simplesmente versões deslocadas no tempo dessas respostas. A representação por soma de convolu- ção para os sistemas de tempo discreto que são tanto line- ares quanto invariantes no tempo resulta da junção desses dois fatos básicos. De modo mais específico, considere a resposta de um sistema linear (mas possivelmente variante no tempo) a uma entrada arbitrária x[n]. Pela Equação 2.2, podemos representar a entrada como uma combinação linear de impulsos unitários deslocados. Considere que h k [n] deno- te a resposta do sistema linear ao impulso unitário desloca- do δ [n – k]. Então, a partir da propriedade de superpo- sição para um sistema linear (equações 1.123 e 1.124), a resposta y[n] do sistema linear à entrada x[n] na Equação 2.2 é simplesmente a combinação linear ponderada des- sas respostas básicas. Ou seja, com a entrada x[n] para um sistema linear expresso na forma da Equação 2.2, a saída y[n] pode ser expressa como y n x k h nk k [ ] [ ] [ ].= =−∞ +∞ ∑ (2.3) Portanto, de acordo com a Equação 2.3, se soubermos qual é a resposta de um sistema linear a um conjunto de impulsos unitários deslocados, podemos construir a resposta a uma entrada arbitrária. Na Figura 2.2, temos uma interpretação da Equação 2.3. O sinal x[n] é aplica- do como entrada em um sistema linear cujas respostas h −1 [n], h 0 [n] e h 1 [n] aos sinais δ[n + 1], δ[n] e δ[n – 1], res- pectivamente, são mostradas na Figura 2.2(b). Como x[n] pode ser escrito como uma combinação linear de δ[n + 1], δ[n] e δ[n – 1], a superposição permite-nos escrever a res- posta a x[n] como uma combinação linear das respostas aos impulsos individuais deslocados. Os impulsos indivi- duais ponderados e deslocados que constituem x[n] são ilustrados no lado esquerdo da Figura 2.2(c), enquanto as respostas a esses sinais componentes são representadas no lado direito. Na Figura 2.2(d) , retratamos a entrada efetiva x[n], que é o somatório dos componentes do lado esquerdo da Figura 2.2(c), e a saída efetiva y[n], que, por superposição, é o somatório dos componentes do lado direito da Figura 2.2(c). Portanto, a resposta no instante n de um sistema linear é simplesmente a superposição das respostas devido ao valor de entrada em cada ins- tante de tempo. Em geral, as respostas h k [n] não precisam estar re- lacionadas uma à outra para diferentes valores de k. No entanto, se o sistema linear também é invariante no tempo, então essas respostas aos impulsos unitários deslocados no tempo são todas versões deslocadas no tempo umas das outras. Especificamente, como δ[n – k] é uma versão deslocada no tempo de δ[n], a resposta h k [n] é uma ver- são deslocada no tempo de h 0 [n]; isto é, h k [n] = h o [n – k]. (2.4) Para facilitar a notação, eliminaremos o subscrito em h 0 [n] e definiremos a resposta ao impulso unitário (ou à mos- tra unitária) h[n] = h o [n]. (2.5) Ou seja, h[n] é a saída do sistema LIT quando δ[n] é a en- trada. Então, para um sistema LIT, a Equação 2.3 torna-se y n x k h n k k [ ] [ ] [ ].= − =−∞ +∞ ∑ (2.6) Referimo-nos a esse resultado como a soma de con- volução ou soma de superposição, e a operação no membro direito da Equação 2.6 é conhecida como a convolução das sequências x[n] e h[n]. Representaremos simbolicamente a operação da convolução como y[n] = x[n] * h[n]. (2.7) Note que a Equação 2.6 expressa a resposta de um sistema LIT a uma entrada arbitrária em termos da res- posta do sistema ao impulso unitário. Disso, vemos que um sistema LIT é totalmente caracterizado por sua res- posta a um único sinal, isto é, sua resposta ao impulso unitário. A interpretação da Equação 2.6 é semelhante à que demos para a Equação 2.3, em que, no caso de um sis- tema LIT, a resposta devida ao impulso x[k] aplicada no instante k é x[k]h[n – k]; ou seja, é uma versão ponderada 52 Sinais e sistemas y x k h k k [ ] [ ] [ ] , , , .1 1 0 5 2 0 2 5= − = + = =−∞ ∞ ∑ (2.10) De maneira semelhante, y x k h k k [2] = [ ] [ =−∞ ∞ ∑ − = + =2 0 5 2 0 2 5] , , , , (2.11) e y x k h k k [ ] [ ] [ ] , .3 3 2 0= − = =−∞ ∞ ∑ (2.12) Por fim, para n > 3, o produto x[k] h[n – k] é zero para todo k, a partir do que concluímos que y[n] = 0 para n > 3. Os valores de saída resultantes estão em concordância com todos os valores obtidos no Exemplo 2.1. Exemplo 2.3 Considere uma entrada x[n] e uma resposta ao impul- so unitário h[n] dadas por x n u n h n u n n[ ] [ ], [ ] [ ], = = α sendo 0 < α < 1. Esses sinais são ilustrados na Figura 2.5. Também, para nos ajudar a visualizar e calcular a convo- lução dos sinais, representamos na Figura 2.6 o sinal x[k] seguido por h[−k], h[−1 – k] e h[1 – k] (ou seja, h[n – k] para n = 0, −1 e +1) e, por último, h[n – k] para um valor positivo arbitrário de n e um valor negativo arbitrário de n. A partir dessa figura, notamos que para n < 0 não há so- breposição entre as amostras não nulas em x[k] e h[n – k]. Portanto, para n < 0, x[k] h[n – k] = 0 para todos os valores de k, e por isso, a partir da Equação 2.6, vemos que y[n] = 0, n < 0. Para n ≥ 0, x k h n k k nk [ ] [ ] , , .− = ≤ ≤⎧ ⎨ ⎪⎪ ⎩⎪⎪ α 0 0 caso contrário h[n]  u[n] n0 x[n]  nu[n] n0 (a) (b) Figura 2.5 Sinais x [n] e h [n] no Exemplo 2.3. Portanto, para n ≥ 0, y n k k n [ ] ,= = ∑α 0 e usando o resultado do Problema 1.54, podemos escrever: y n nk k n n [ ] .= = − − ≥ = + ∑α αα0 11 1 0para (2.13) Dessa forma, para todo n, y n u n n [ ] [ ].= − − ⎛ ⎝ ⎜⎜⎜⎜ ⎞ ⎠ ⎟⎟⎟⎟ +1 1 1α α O sinal y[n] é representado na Figura 2.7. x[k] h[n-k], n0 h[0k] k1 1 1 1 1 1 0 k k h[1k] k 0 01 1 0 1 h[2k] k0 1 2 h[3k] k0 1 2 3 h[nk], n3 kn2 n1 n0 2 nn1n2 0,5 2 (a) (b) Figura 2.4 Interpretação da Equação 2.6 para os sinais h [n] e x [n] na Figura 2.3; (a) sinal x [k] e (b) sinal h [n – k] (como função de k com n fixo) para diversos valores de n (n < 0; n = 0, 1, 2, 3; n > 3). Cada um desses sinais é obtido pela reflexão e deslocamento da resposta ao impulso uni- tário h [k]. A resposta y [n] para cada valor de n é obtida multiplicando-se os sinais x [k] e h [n – k] em (a) e (b) e depois somando os produtos sobre todos os valores de k. O cálculo para esse exemplo é feito detalhadamen- te no Exemplo 2.2. Sistemas lineares invariantes no tempo 53 A operação de convolução é descrita algumas vezes em termos de um ‘deslizamento' da sequência h[n – k] através de x[k]. Por exemplo, suponha que tenhamos calcu- lado y[n] para algum valor particular de n, digamos, n = n 0 . Ou seja, traçamos o sinal h[n 0 – k], multiplicamos pelo sinal x[k] e somamos o resultado sobre todos os valores de k. Para calcular y[n] no próximo valor de n — isto é, n = n 0 + 1 — precisamos traçar o sinal h[(n 0 + 1) – k]. No entanto, podemos fazer isso simplesmente tomando o sinal h[n 0 – k] e deslocando-o à direita em uma amostra. Para cada valor sucessivo de n, continuamos esse proces- so de deslocar h[n – k] uma amostra para a direita, multi- plicando por x[k] e somando o resultado sobre k. Exemplo 2.4 Vejamos mais um exemplo. Considere as duas sequências x n n [ ] caso contrário = ≤ ≤⎧ ⎨ ⎪⎪ ⎩⎪⎪ 1 0 4 0 , , e h n nn [ ] caso contrário = ≤ ≤⎧ ⎨ ⎪⎪ ⎩⎪⎪ α , , . 0 6 0 Esses sinais são ilustrados na Figura 2.8 para um valor po- sitivo de α > 1. Para calcular a convolução dos dois sinais, é conveniente considerar cinco intervalos separados de n. Esses intervalos são ilustrados na Figura 2.9. Intervalo 1. Para n < 0, não há sobreposição entre por- ções não nulas de x[k] e h[n – k]; consequentemente, y[n] = 0. h[k] k0 h[1k] k01 h[1k] h[nk] k0 1 kn n0 0 h[nk] x[k]  ku[k] k k n n0 0 0 (a) (b) (c) (d) (e) (f) Figura 2.6 Interpretação gráfica do cálculo da soma de convolução para o Exemplo 2.3. y[n]  u[n]1  n  1 1 1 0 n 1 Figura 2.7 Saída para o Exemplo 2.3. 54 Sinais e sistemas Intervalo 2. Para 0 ≤ n ≤ 4, x k h n k k nn k [ ] caso contrário [ ] , , − = ≤ ≤⎧ ⎨ ⎪⎪ ⎩⎪ −α 0 0⎪ . 0 12 1 2 3 4 5 n x[n] 0 12 1 2 3 4 5 6 7 n h[n] (a) (b) Figura 2.8 Sinais a serem convoluídos no Exemplo 2.4. Portanto, nesse intervalo, y n n k k n [ ] .= − = ∑α 0 (2.14) Podemos calcular essa soma usando a fórmula da soma fini- ta, Equação 2.13. Especificamente, mudando a variável do somatório na Equação 2.14, de k para r = n – k, obtemos y n r r n n [ ] .= = − −= + ∑α αα0 11 1 Intervalo 3. Para n > 4, mas n – 6 ≤ 0 (isto é, 4 < n ≤ 6), x k h n k kn k [ ] [ ] , , .− = ≤ ≤⎧ ⎨ ⎪⎪ ⎩⎪⎪ −α 0 4 0 caso contrário Portanto, nesse intervalo, y n n k k [ ] .= − = ∑α 0 4 (2.15) Mais uma vez, podemos usar a fórmula da soma geométrica da Equação 2.13 para calcular a Equação 2.15. Especifica- mente, evidenciando o termo constante αn do somatório da Equação 2.15, o resultado é y n n k k n n n [ ] ( ) ( ) = = − − = − − = − − − + ∑α α α αα α α 1 0 4 1 5 1 4 1 1 1 1−α . (2.16) Intervalo 4. Para n > 6, mas n – 6 ≤ 4 (isto é, para 6 < n ≤ 10), x k h n k n kn k [ ] [ ] , ( ) , − = − ≤ ≤⎧ ⎨ −α 6 4 0 caso contrário ⎪⎪ ⎩⎪⎪ , de modo que y n n k k n [ ] .= − = − ∑ α 6 4 x[k] k0 4 h[nk] k0n n6 h[nk] k0 n n6 h[nk] 4  n  6 0  n  4 n  0 6  n  10 k0 n n6 h[nk] k0 n n6 h[nk] n10 k0 n n6 (a) (b) (c) (d) (e) (f) Figura 2.9 Interpretação gráfica da convolução do Exemplo 2.4. Sistemas lineares invariantes no tempo 57 Na Figura 2.12 percebemos que, assim como no caso de tempo discreto (Equação 2.2), para qualquer valor de t, somente uma parcela no somatório do membro direito da Equação 2.25 é não nula. Quando consideramos Δ se aproximando de 0, a aproximação x̂(t) torna-se cada vez melhor e, no limite, iguala-se a x(t). Portanto, x t x k t k k ( ) lim ( ) ( ) .= − → =−∞ +∞ ∑ Δ Δ Δ Δ Δ 0 δ (2.26) Além disso, quando Δ → 0, o somatório na Equação 2.26 aproxima-se de uma integral. Isso pode ser visto consi- derando a interpretação gráfica desta equação, ilustrada na Figura 2.13. Ilustramos os sinais x(τ), δΔ(t – τ) e seu produto. Também marcamos uma região sombreada cuja área se aproxima da área sob x(τ)δΔ(t – τ) quando Δ → 0. Note-se que a região sombreada tem uma área igual a x(mΔ), sendo t − Δ < mΔ < t. Além disso, para esse valor de t, somente a parcela com k = m é não nula no somató- rio da Equação 2.26 e, portanto, o membro direito dessa equação também é igual a x(mΔ). Consequentemente, a partir da Equação 2.26 e do argumento precedente, te- mos que x(t) é igual ao limite quando Δ → 0 da área sob x(τ)δΔ(t – τ). Além disso, com base na Equação 1.74, sabemos que o limite quando Δ → 0 de δΔ(t) é a função impulso unitário δ(t). Logo, x t x t d( ) ( ) ( ) .= − −∞ +∞ ∫ τ δ τ τ (2.27) Como em tempo discreto, referimo-nos à Equação 2.27 como a propriedade seletiva do impulso de tempo contí- nuo. Notamos que, para o exemplo específico de x(t) = u(t), a Equação 2.27 torna-se u t u t d t d( ) ( ) ( ) ( ) .= − = − −∞ +∞ ∞ ∫ ∫τ δ τ τ δ τ τ0 (2.28) já que u(τ) = 0 para τ < 0 e u(τ) = 1 para τ > 0. A Equa- ção 2.28 é idêntica à Equação 1.75, obtida na Seção 1.4.2. Mais uma vez, a Equação 2.27 deve ser vista como uma idealização no sentido de que, para Δ “pequeno o su- ficiente”, a aproximação de x(t) na Equação 2.25 é essen- cialmente exata para todo propósito prático. A Equação 2.27, portanto, simplesmente representa uma idealização da Equação 2.25 ao assumirmos Δ como arbitrariamente pequeno. Note-se também que poderíamos obter a Equa- ção 2.27 diretamente usando várias propriedades bási- cas do impulso unitário que obtivemos na Seção 1.4.2. Especificamente, como ilustrado na Figura 2.14(b), o si- nal δ(t – τ) (visto como uma função de τ com t fixo) é um impulso unitário localizado em τ = t. Portanto, como mostra a Figura 2.14(c), o sinal x(τ)δ(t – τ) (mais uma vez visto como uma função de τ) é igual a x(t)δ(t – τ), ou seja, é um impulso ponderado em τ = t com uma área igual ao valor de x(t). Consequentemente, a integral desse sinal de τ = − a τ = + é igual a x(t); ou seja, x t d x t t d x t t ( ) ( ) ( ) ( ) ( ) ( τ δ τ τ δ τ τ δ − = − = −∞ +∞ −∞ +∞ ∫ ∫ − = −∞ +∞ ∫ τ τ) ( ).d x t Embora essa dedução resulte diretamente da Seção 1.4.2, incluímos a demonstração dada nas equações 2.24 a 2.27 para ressaltar as semelhanças com o caso de tempo discreto e, em particular, para enfatizar a interpretação da Equação 2.27 como uma representação do sinal x(t) como uma 'soma' (mais precisamente, uma integral) de impulsos deslocados e ponderados. x( ) (t ) m t   t x( )(t ) x(m) • t   t 1  1   m (a) (b) (c) Figura 2.13 Interpretação gráfica da Equação 2.26. 58 Sinais e sistemas 2.2.2 A resposta ao impulso unitário e a representação por integral de convolução dos sistemas de tempo contínuo LIT Assim como no caso do tempo discreto, a represen- tação obtida na seção anterior mostra-nos uma forma de interpretar um sinal arbitrário de tempo contínuo como a superposição de pulsos deslocados e ponderados. Em particular, a representação aproximada da Equação 2.25 representa o sinal x̂(t) como um somatório de versões deslocadas e ponderadas do sinal de pulso básico δΔ(t). Consequentemente, a resposta ŷ(t) de um sistema linear a esse sinal será a superposição das respostas às versões deslocadas e ponderadas de δΔ(t). De maneira mais espe- cífica, consideremos ĥkΔ(t) como a resposta de um sistema LIT à entrada δΔ(t – kΔ). Assim, partindo da Equação 2.25 e da propriedade de superposição, para os sistemas linea- res de tempo contínuo, vemos que ˆ( ) ( ) ˆ ( ) .y t x k h tk k = =−∞ +∞ ∑ Δ ΔΔ (2.29) A interpretação da Equação 2.29 é semelhante à interpretação da Equação 2.3 para tempo discreto. Em particular, considere a Figura 2.15, que é o corres- pondente em tempo contínuo da Figura 2.2. Na Figura 2.15(a), representamos a entrada x(t) e sua aproximação x̂(t), enquanto nas figuras 2.15(b) a (d), mostramos as respostas do sistema a três dos pulsos ponderados na ex- pressão para x̂(t). Então a saída ŷ(t) correspondente a x̂(t) é a superposição de todas as respostas, como indicado na Figura 2.15(e). O que falta, portanto, é considerar o que aconte- ce quando Δ se torna arbitrariamente pequeno — isto é, quando Δ → 0. Em particular, usando x(t) conforme expresso na Equação 2.26, x̂(t) torna-se uma aproxima- x( ) 1 (t ) x( )(t )  x(t)(t ) t t x(t) (a) (b) (c) Figura 2.14 (a) Sinal arbitrário x (τ); (b) impulso δ ( t – τ) como fun- ção de τ com t fixo; (c) produto desses dois sinais. x(t) x(0)h0(t) x(0) 0 t 0 t t t t t t t0 t0 t0 t0  x(t) ^ x()h(t) ^ x(k)hk(t) ^ ^ x() k x(k) x(t) x(t) ŷ(t) y(t) (a) (b) (c) (d) (e) (f) Figura 2.15 Interpretação gráfica da resposta de um sistema linear de tempo contínuo conforme expresso nas equações 2.29 e 2.30. Sistemas lineares invariantes no tempo 59 ção cada vez melhor de x(t) e, de fato, os dois coincidem quando Δ → 0. Como consequência, a resposta a x̂(t), denotada ŷ(t) na Equação 2.29, deve convergir para y(t), a resposta à entrada efetiva x(t), como ilustrado na Figura 2.15(f). Além disso, como dissemos, para Δ “suficiente- mente pequeno”, a duração do pulso δΔ(t – kΔ) não é sig- nificativa porque, no que se refere ao sistema, a resposta a esse pulso é essencialmente a mesma que a resposta a um impulso unitário no mesmo instante de tempo. Ou seja, como o pulso δΔ(t – kΔ) corresponde a um im- pulso unitário deslocado quando Δ → 0, a resposta ĥkΔ(t) a esse pulso unitário torna-se a resposta a um impul- so no limite. Portanto, se hτ(t) representa a resposta no tempo t a um impulso unitário δ(t – τ) localizado no tempo τ, então y t x k h tk k ( ) lim ( ) ˆ ( ) .= → =−∞ +∞ ∑ Δ Δ Δ Δ 0 (2.30) Quando Δ → 0, o somatório do membro direito torna- -se uma integral, como pode ser visto graficamente na Figura 2.16. Especificamente, nesta figura, o retângu- lo sombreado representa uma parcela no somatório do membro direito da Equação 2.30 e, quando Δ → 0, o somatório aproxima-se da área sob x(τ)hτ(t) vista como uma função de τ. Portanto, y t x h t d( ) ( ) ( ) .= −∞ +∞ ∫ τ ττ (2.31) A interpretação da Equação 2.31 é análoga à in- terpretação da Equação 2.3. Como mostramos na Seção 2.2.1, qualquer entrada x(t) pode ser representada por x t x t d( ) ( ) ( ) .= − −∞ +∞ ∫ τ δ τ τ Ou seja, podemos intuitivamente pensar x(t) como uma soma de impulsos deslocados ponderados, em que o peso do impulso δ(t – τ) é x(τ)dτ. Com essa interpretação, a Equação 2.31 representa a superposição das respostas a cada uma dessas entradas e, por linearidade, o peso associado à resposta hτ(t) ao impulso deslocado δ(t – τ) também é x(τ)dτ. A Equação 2.31 representa a forma geral da respos- ta de um sistema linear de tempo contínuo. Se, além de ser linear, o sistema também for invariante no tempo, en- tão hτ(t) = h0(t – τ); isto é, a resposta de um sistema LIT ao impulso unitário δ(t – τ), que é deslocado da origem em τ segundos, é uma versão deslocada semelhante da resposta à função impulso unitário δ(t). Novamente, para facilitar a notação, eliminamos o subscrito e definimos a resposta ao impulso unitário h(t) como h(t) = h 0 (t); (2.32) isto é, h(t) é a resposta a δ(t). Nesse caso, a Equação 2.31 torna-se y t x h t d( ) ( ) ( ) .= − −∞ +∞ ∫ τ τ τ (2.33) A Equação 2.33, conhecida como integral de convolu- ção ou integral de superposição, é o correspondente de tem- po contínuo da soma de convolução da Equação 2.6 e corresponde à representação de um sistema LIT de tempo contínuo em termos de sua resposta a um impulso unitá- rio. A convolução de dois sinais x(t) e h(t) será represen- tada simbolicamente por y(t) = x(t) * h(t). (2.34) Apesar de termos escolhido usar o mesmo símbolo * para denotar tanto a convolução de tempo discreto como a de tempo contínuo, o contexto será geralmente suficiente para diferenciar os dois casos. Assim como no tempo discreto, vemos que um sis- tema LIT de tempo contínuo é completamente caracteri- zado por sua resposta ao impulso — isto é, por sua res- posta a um único sinal elementar, o impulso unitário δ(t). Na próxima seção, exploramos as implicações desse fato enquanto examinamos diversas propriedades da convo- lução e dos sistemas LIT tanto de tempo contínuo como de tempo discreto. O procedimento para calcular a integral de con- volução é similar ao que usamos para calcular seu cor- respondente de tempo discreto, a soma de convolução. Especificamente, na Equação 2.33, vemos que, para qualquer valor t, a saída y(t) é uma integral ponderada da entrada, em que o peso correspondente a x(τ) é h(t – τ). Para calcular essa integral para um valor específico de t, primeiro obtemos o sinal h(t – τ) (considerado uma fun- ção de τ com t fixo) de h(τ) por uma reflexão em torno da origem e um deslocamento para a direita de t se t > 0 ou um deslocamento para a esquerda de |t| se t < 0. área sombreada  x(k)hk(t) k x()h(t) (k1) Figura 2.16 Ilustração gráfica das equações 2.30 e 2.31. 62 Sinais e sistemas Para t – 3 ≥ 0, o produto x(τ)h(t – τ) é não nulo para − < τ < 0, de modo que a integral de convolução é y t e d( ) .= = −∞∫ 2 0 1 2 τ τ (2.38) O sinal resultante y(t) é representado graficamente na Figura 2.22(b). Conforme ilustram esses exemplos e aqueles apre- sentados na Seção 2.1, a interpretação gráfica da convo- lução de tempo discreto e de tempo contínuo é de valor considerável na visualização do cálculo das somas e das integrais de convolução. 2.3 Propriedades dos sistemas lineares invariantes no tempo Nas duas seções anteriores, desenvolvemos repre- sentações extremamente importantes dos sistemas LIT de tempo discreto e de tempo contínuo em termos de suas respostas ao impulso unitário. No tempo discreto, a repre- sentação assume a forma da soma de convolução, enquan- to sua correspondente em tempo contínuo é a integral de convolução, ambas repetidas a seguir por conveniência: y n x k h n k x n h n k [ ] [ ] [ ] [ ]* [ ]= − = =−∞ +∞ ∑ y t x h t d x t h t( ) ( ) ( ) ( )* ( )= − = −∞ +∞ ∫ τ τ τ (2.39) (2.40) Conforme já observado, uma consequência dessas representações é o fato de as características de um sistema LIT serem completamente determinadas por sua resposta ao impulso. É importante enfatizar que essa propriedade é válida em geral somente para os sistemas LIT. Em parti- cular, conforme ilustrado no exemplo a seguir, a resposta ao impulso unitário de um sistema não linear não carac- teriza completamente o comportamento do sistema. Exemplo 2.9 Considere um sistema de tempo discreto com resposta ao impulso unitário h n n [ ] , , , .= =⎧ ⎨ ⎪⎪ ⎩⎪⎪ 1 0 1 0 caso contrário (2.41) Se o sistema é LIT, então a Equação 2.41 determina por completo seu comportamento de entrada-saída. Particular- mente, ao substituir a Equação 2.41 na soma de convolução, Equação 2.39, encontramos a seguinte equação explícita que descreve como a entrada e a saída desse sistema LIT estão relacionadas: y[n] = x[n] + x [n – 1]. (2.42) Por outro lado, há muitos sistemas não lineares com a mesma resposta ao impulso δ[n], isto é, a dada pela Equação 2.41. Por exemplo, os dois sistemas a seguir têm essa propriedade: y[n] = (x[n] + x[n – 1])2, y[n] = máx (x[n], x[n – 1]). Consequentemente, se o sistema é não linear, ele não é completamente caracterizado pela resposta ao impulso da Equação 2.41. O exemplo anterior ilustra o fato de que os sistemas LIT apresentam diversas propriedades que outros siste- mas não possuem, a começar pelas representações muito especiais que eles têm em termos das integrais e da soma de convolução. No restante desta seção, exploraremos al- gumas dessas propriedades mais importantes e básicas. 2.3.1 A propriedade comutativa Uma propriedade básica da convolução em tempo discre- to e em tempo contínuo é que ela é uma operação comutativa. 0  1 x() = e2u() 0 0 3 t t3 y(t)  1 h(t) 2 1 (a) (b) Figura 2.22 Problema de convolução considerado no Exemplo 2.8. Sistemas lineares invariantes no tempo 63 Ou seja, em tempo discreto x n h n h n x n h k x n k k [ ]* [ ] [ ]* [ ] [ ] [ ],= = − =−∞ +∞ ∑ (2.43) e em tempo contínuo x t h t h t x t h x t d( )* ( ) ( )* ( ) ( ) ( ) .= = − −∞ +∞ ∫ τ τ τ (2.44) Essas expressões podem ser verificadas de forma imediata por meio de substituição de variáveis nas equações 2.39 e 2.40. Por exemplo, no caso do tempo discreto, tomando r = n – k ou, equivalentemente, k = n – r, a Equação 2.39 torna-se x n h n x k h n k x n r h r h k r [ ]* [ ] [ ] [ ] [ ] [ ] = − = − = =−∞ +∞ =−∞ +∞ ∑ ∑ [ ]* [ ].n x n (2.45) Com essa substituição de variáveis, os papéis de x[n] e h[n] são trocados. De acordo com a Equação 2.45, a saída de um sistema LIT com entrada x[n] e resposta ao im- pulso unitário h[n] é idêntica à saída de um sistema LIT com entrada h[n] e resposta ao impulso unitário x[n]. Por exemplo, poderíamos ter calculado a convolução no Exemplo 2.4 primeiro refletindo e deslocando x[k], de- pois multiplicando os sinais x[n – k] e h[k] e, por fim, somando os produtos para todos os valores de k. De forma semelhante, a Equação 2.44 pode ser ve- rificada por uma mudança de variáveis, e as implicações desse resultado em tempo contínuo são as mesmas. A saída de um sistema LIT com entrada x(t) e resposta ao impulso unitário h(t) é idêntica à saída de um siste- ma LIT com entrada h(t) e resposta ao impulso unitá- rio x(t). Portanto, poderíamos ter calculado a convolução no Exemplo 2.7 refletindo e deslocando x(t), multipli- cando os sinais x(t – τ) e h(τ) e integrando no intervalo − < τ < + . Em casos específicos, uma das duas formas de calcular convoluções, isto é, a Equação 2.39 ou a Equação 2.43 em tempo discreto e a Equação 2.40 ou a Equação 2.44 em tempo contínuo, pode ser mais fá- cil de visualizar, mas as duas formas sempre resultam na mesma resposta. 2.3.2 A propriedade distributiva Outra propriedade básica da convolução é a proprie- dade distributiva. Especificamente, a convolução é distribu- tiva com relação a adição, de modo que, em tempo discreto x[n] * (h 1 [n] + h 2 [n]) = x[n] * h 1 [n] + x[n] * h 2 [n], (2.46) e em tempo contínuo x(t) * [h 1 (t) + h 2 (t)] = x(t) * h 1 (t) + x(t) * h 2 (t). (2.47) Essa propriedade pode ser verificada de forma imediata. A propriedade distributiva tem uma interpretação útil no que se refere às interconexões dos sistemas. Con- sidere dois sistemas LIT de tempo contínuo em paralelo, como indicado na Figura 2.23(a). Os sistemas mostrados no diagrama de blocos são sistemas LIT com as respostas ao impulso unitário indicadas. Essa representação gráfica é uma forma particularmente conveniente de mostrarmos os sistemas LIT em diagramas de blocos, e ela também acentua o fato de que a resposta ao impulso de um siste- ma LIT caracteriza completamente seu comportamento. Os dois sistemas, com respostas ao impulso h 1 (t) e h 2 (t), têm entradas idênticas, e suas saídas são adiciona- das. Como y 1 (t) = x(t) * h 1 (t) e y 2 (t) = x(t) * h 2 (t), o sistema da Figura 2.23(a) tem saída y(t) = x(t) * h 1 (t)+ x(t) * h 2 (t), (2.48) correspondendo ao membro direito da Equação 2.47. O sistema da Figura 2.23(b) tem saída y(t) = x(t) * [h 1 (t) + h 2 (t)], (2.49) x(t ) y( t ) x( t ) y( t ) y1( t ) y2( t ) h2( t ) h1( t ) h1( t )  h2( t )  (a) (b) Figura 2.23 Interpretação da propriedade distributiva da convolu- ção para uma interconexão paralela de sistemas LIT. 64 Sinais e sistemas correspondendo ao membro esquerdo da Equação 2.47. Aplicando a Equação 2.47 à Equação 2.49 e comparando o resultado com a Equação 2.48, vemos que os sistemas nas figuras 2.23(a) e 2.23(b) são idênticos. Há uma interpretação idêntica em tempo discre- to, em que cada um dos sinais na Figura 2.23 é subs- tituído por um correspondente de tempo discreto (isto é, x(t), h 1 (t), h 2 (t), y 1 (t), y 2 (t) e y(t) são substituídos por x[n], h 1 [n], h 2 [n], y 1 [n], y 2 [n] e y[n], respectivamente). Em suma, portanto, em virtude da propriedade distribu- tiva da convolução, uma combinação paralela de sistemas LIT pode ser substituída por um único sistema LIT cuja resposta ao impulso unitário é a soma das respostas ao impulso unitário individuais na combinação paralela. Além disso, como consequência da propriedade dis- tributiva e da propriedade comutativa, temos [x 1 [n] + x 2 [n]] * h[n] = x 1 [n] * h[n] + x 2 [n] * h[n] (2.50) e [x 1 (t) + x 2 (t)] * h(t) = x 1 (t) * h(t) + x 2 (t) * h(t), (2.51) que simplesmente dizem que a resposta de um sistema LIT à soma de duas entradas deve ser igual à soma das respos- tas a esses sinais individualmente. Conforme ilustrado no próximo exemplo, a pro- priedade distributiva da convolução também pode ser usada para dividir uma convolução complicada em várias convoluções simples. Exemplo 2.10 Suponha que y[n] seja a convolução das duas sequências: x n u n u n n n[ ] [ ] [ ],= ⎛ ⎝ ⎜⎜⎜ ⎞ ⎠ ⎟⎟⎟⎟ + − 1 2 2 (2.52) h n u n[ ] [ ].= (2.53) Note que a sequência x[n] é não nula ao longo de todo o eixo do tempo. O cálculo direto de uma convolução desse tipo é um pouco tedioso. Em vez de efetuar o cálculo dire- tamente, podemos usar a propriedade distributiva para ex- pressar y[n] como a soma dos resultados de dois problemas de convolução mais simples. Em particular, se consideramos x 1 [n] = (1/2)nu[n] e x 2 [n] = 2nu[−n], teremos y[n] = (x 1 [n] + x 2 [n]) * h[n]. (2.54) Usando a propriedade distributiva da convolução, podemos reescrever a Equação 2.54 como y[n] = y 1 [n] + y 2 [n], (2.55) sendo y 1 [n] = x 1 [n] * h[n] (2.56) e y 2 [n] = x 2 [n] * h[n]. (2.57) A convolução na Equação 2.56 para y 1 [n] pode ser obtida a partir do Exemplo 2.3 (com α = 1/2), enquanto y 2 [n] foi calculado no Exemplo 2.5. Sua soma é y[n], exibida na Figura 2.24. n y[n] 5 6 743210123 1 3 4 1 21 4 Figura 2.24 Sinal y [n] = x [n] * h [n] para o Exemplo 2.10. 2.3.3 A propriedade associativa Outra propriedade útil e importante da convolução é a associativa. Ou seja, em tempo discreto x[n] * (h 1 [n] * h 2 [n]) = (x[n] * h 1 [n]) * h 2 [n], (2.58) e em tempo contínuo x(t) * [h 1 (t) * h 2 (t)] = [x(t) * h 1 (t)] * h 2 (t). (2.59) Essa propriedade é demonstrada por manipulações diretas das somas e integrais envolvidas. Veja o Problema 2.43. Como consequência da propriedade associativa, as expressões y[n] = x [n] * h 1 [n] * h 2 [n] (2.60) e y(t) = x(t) * h 1 (t) * h 2 (t) (2.61) não apresentam ambiguidade. Ou seja, de acordo com as equações 2.58 e 2.59, a ordem de convolução desses sinais não importa. Uma interpretação dessa propriedade associati- va é ilustrada para os sistemas de tempo discreto nas figuras 2.25(a) e (b). Na Figura 2.25(a), Sistemas lineares invariantes no tempo 67 então h(t) * h 1 (t) = δ(t – t 0 ) * δ(t + t 0 ) = δ(t). De modo semelhante, um deslocamento no tempo em tempo discreto tem resposta ao impulso unitário δ[n – n 0 ], de modo que convoluir um sinal com um impulso deslocado é o mesmo que deslocar o sinal. Além disso, o inverso do sistema LIT com resposta ao impulso δ[n – n 0 ] é o sistema LIT que desloca o sinal na direção oposta pela mesma quantida- de — isto é, o sistema LIT com resposta ao impulso δ[n + n 0 ]. Exemplo 2.12 Considere um sistema LIT com resposta ao impulso h[n] = u[n]. (2.71) Usando a soma de convolução, podemos calcular a resposta desse sistema a uma entrada arbitrária: y n x k u n k k [ ] [ ] [ ]= − =−∞ +∞ ∑ . (2.72) Como u[n – k] é 0 para n – k < 0 e 1 para n – k ≥ 0, a Equação 2.72 torna-se y n x k k n [ ] [ ].= =−∞ ∑ (2.73) Ou seja, esse sistema, que vimos pela primeira vez na Se- ção 1.6.1 (ver Equação 1.92), é um somador ou acumu- lador que calcula a soma cumulativa de todos os valores da entrada até o instante presente. Como vimos na Seção 1.6.2, um sistema desse tipo é invertível, e seu inverso, conforme dado pela Equação 1.99, é y[n] = x[n] – x[n – 1], (2.74) que é simplesmente uma operação de diferença de primeira ordem. Escolhendo x[n] = δ[n], descobrimos que a resposta ao impulso do sistema inverso é h 1 [n] = δ[n] – δ[n – 1]. (2.75) Para verificar que h[n] na Equação 2.71 e h 1 [n] na Equação 2.75 são de fato as respostas ao impulso de sistemas LIT que são inversos um do outro, podemos testar a Equação 2.67 por cálculo direto: h n h n u n n n u n n u n [ ]* [ ] [ ]* { [ ] [ ]} [ ]* [ ] [ 1 1= − − = − δ δ δ ]* [ ] [ ] [ ] [ ]. δ δ n u n u n n − = − − = 1 1 (2.76) 2.3.6 Causalidade dos sistemas LIT Na Seção 1.6.3, apresentamos a propriedade de cau- salidade: a saída de um sistema causal depende apenas dos valores presentes e passados da entrada do sistema. Usando a integral e a soma de convolução, podemos re- lacionar essa propriedade a uma propriedade correspon- dente da resposta ao impulso de um sistema LIT. Em ou- tras palavras, para que um sistema LIT de tempo discreto seja causal, y[n] não deve depender de x[k] para k > n. Tendo como base a Equação 2.39, vemos que, para que isso ocorra, todos os coeficientes h[n – k] que multiplicam valores de x[k] para k > n devem ser nulos. Sendo assim, isso requer que a resposta ao impulso de um sistema LIT causal de tempo discreto satisfaça a condição h[n] = 0 para n < 0. (2.77) De acordo com a Equação 2.77, a resposta ao impulso de um sistema LIT causal deve ser nula antes que o impulso ocorra, o que é consistente com o conceito intuitivo de causalidade. De modo mais geral, como mostra o Pro- blema 1.44, a causalidade de um sistema linear é equi- valente à condição de repouso inicial, isto é, se a entrada de um sistema causal é 0 até determinado instante, en- tão a saída também deve ser 0 até aquele instante. É im- portante realçar que a equivalência da causalidade e da condição de repouso inicial aplica-se somente a sistemas lineares. Por exemplo, como discutido na Seção 1.6.6, o sistema y[n] = 2x[n] + 3 é não linear. No entanto, ele é causal e, de fato, sem memória. Por outro lado, se x[n] = 0, y[n] = 3 ≠ 0, por isso ele não satisfaz a condi- ção de repouso inicial. Para um sistema LIT causal de tempo discreto, a condição na Equação 2.77 implica que a representação da soma de convolução na Equação 2.39 se torna y n x k h n k k n [ ] [ ] [ ],= − =−∞ ∑ (2.78) e a forma alternativa equivalente, a Equação 2.43, torna-se y n h k x n k k [ ] [ ] [ ]= − = ∞ ∑ 0 . (2.79) De modo semelhante, um sistema LIT de tempo contínuo é causal se h(t) = 0 para t < 0, (2.80) e, nesse caso, a integral de convolução é dada por y t x h t d h x t d t ( ) ( ) ( ) ( ) ( ) .= − = − ∞ −∞ ∫∫ τ τ τ τ τ τ0 (2.81) Tanto o acumulador (h[n] = u[n]) quanto seu in- verso (h[n] = δ[n] – δ[n – 1]), descritos no Exemplo 2.12, satisfazem a Equação 2.77 e, portanto, são causais. O des- locamento simples no tempo com resposta ao impulso 68 Sinais e sistemas h(t) = δ(t – t 0 ) é causal para t 0 ≥ 0 (quando o deslocamento no tempo é um atraso), mas é não causal para t 0 < 0 (nes- se caso, o deslocamento no tempo é um adiantamento, de modo que a saída antecipa valores futuros da entrada). Por fim, apesar de a causalidade ser uma propriedade dos sistemas, ela é uma terminologia comum para se refe- rir a um sinal, sendo causal se for nulo para n < 0 ou t < 0. A motivação para essa terminologia vem das equações 2.77 e 2.80: a causalidade de um sistema LIT é equivalente à sua resposta ao impulso ser um sinal causal. 2.3.7 Estabilidade para sistemas LIT Lembre-se de que na Seção 1.6.4 falamos que um sistema é estável se toda entrada limitada produz uma saí- da limitada. Para determinar as condições sob as quais os sistemas LIT são estáveis, considere uma entrada x[n] que é limitada em módulo: |x[n]| < B para todo n. (2.82) Suponha que essa entrada seja usada para um sistema LIT com resposta ao impulso unitário h[n]. Assim, usan- do a soma de convolução, obtemos uma expressão para o módulo da saída: y n h k x n k k [ ] [ ] [ ].= − =−∞ +∞ ∑ (2.83) Como o módulo da soma de um conjunto de números não é maior que a soma dos módulos dos números, segue-se, da Equação 2.83, que y n h k x n k k [ ] [ ] [ ].≤ − =−∞ +∞ ∑ (2.84) De acordo com a Equação 2.82, |x[n – k]| < B para todos os valores de k e n. Juntamente com a Equação 2.84, esse fato implica y n B h k n k [ ] [ ] .≤ =−∞ +∞ ∑ para todo (2.85) A partir da Equação 2.85, podemos concluir que se a resposta ao impulso é absolutamente somável, isto é, se h k k [ ] , =−∞ +∞ ∑ < ∞ (2.86) então y[n] é limitado em módulo e, por isso, o sistema é estável. Portanto, a Equação 2.86 é uma condição su- ficiente para garantir a estabilidade de um sistema LIT de tempo discreto. Na verdade, essa condição também é uma condição necessária, pois, como mostrado no Problema 2.49, se a Equação 2.86 não for satisfeita, há entradas limitadas que resultam em saídas não limitadas. Portanto, a estabilidade de um sistema LIT de tempo dis- creto é completamente equivalente à Equação 2.86. No tempo contínuo, obtemos uma caracterização análoga da estabilidade em termos da resposta ao impul- so de um sistema LIT. Especificamente, se |x(t)| < B para todo t, então, em analogia com as equações 2.83 a 2.85, segue-se que y t h x t d h x t d B h ( ) ( ) ( ) ( ) ( ) = − ≤ − ≤ −∞ +∞ −∞ +∞ ∫ ∫ τ τ τ τ τ τ ( ) .τ τd −∞ +∞ ∫ Logo, o sistema é estável se a resposta ao impulso é abso- lutamente integrável, isto é, se h d( ) .τ τ −∞ +∞ ∫ < ∞ (2.87) Assim como no tempo discreto, se a Equação 2.87 não é satisfeita, há entradas limitadas que produzem saídas ilimitadas; portanto, a estabilidade de um sistema LIT de tempo contínuo é equivalente à Equação 2.87. O uso das equações 2.86 e 2.87 para testar a estabilidade é ilustrado nos próximos dois exemplos. Exemplo 2.13 Considere um sistema que apenas desloca a entrada no tempo — em tempo contínuo ou em tempo discreto. En- tão, em tempo discreto, h n n n n n [ ] [ ] , =−∞ +∞ =−∞ +∞ ∑ ∑= − =δ 0 1 (2.88) e em tempo contínuo, h d t d( ) ( ) ,τ τ δ τ τ= − = −∞ +∞ −∞ +∞ ∫∫ 0 1 (2.89) concluímos, assim, que os dois sistemas são estáveis. Isso não deve ser uma novidade, pois, se um sinal é limitado em módulo, então o será qualquer versão deslocada no tempo daquele sinal. Agora considere o acumulador descrito no Exemplo 2.12. Como discutimos na Seção 1.6.4, este é um sistema instável, pois, se aplicarmos uma entrada constante a um acumula- dor, a saída aumenta sem limite. Também podemos ver que esse sistema é instável a partir do fato de que sua resposta ao impulso u[n] não é absolutamente somável: u n u n n n [ ] [ ] . =−∞ ∞ = ∞ ∑ ∑= = ∞ 0 Sistemas lineares invariantes no tempo 69 De modo semelhante, considere o integrador, o cor- respondente de tempo contínuo do acumulador: y t x d t ( ) ( ) .= −∞∫ τ τ (2.90) Este é um sistema instável exatamente pela mesma razão dada para o acumulador, isto é, uma entrada constante gera uma saída que cresce sem limite. A resposta ao impulso para o integrador pode ser encontrada ao se supor que x(t) = δ(t), e, nesse caso, h t d u t t ( ) ( ) ( )= = −∞∫ δ τ τ e u d d( ) .τ τ τ −∞ +∞ +∞ ∫ ∫= = ∞0 Como a resposta ao impulso não é absolutamente integrável, o sistema não é estável. 2.3.8 A resposta ao degrau unitário de um sistema LIT Até agora, vimos que a representação de um siste- ma LIT, em função da sua resposta ao impulso unitário, nos permite obter caracterizações bem explícitas das pro- priedades do sistema. Especificamente, como h[n] ou h(t) determinam completamente o comportamento de um sistema LIT, fomos capazes de relacionar as propriedades do sistema, como estabilidade e causalidade, às proprie- dades da resposta ao impulso. Há outro sinal também usado com bastante frequên- cia na descrição do comportamento dos sistemas LIT: a res- posta ao degrau unitário, s[n] ou s(t), correspondendo à saída quando x[n] = u[n] ou x(t) = u(t). Será útil, em certas oca- siões, fazermos referência à resposta ao degrau, por isso é importante relacioná-la à resposta ao impulso. Tendo como base a representação por soma de convolução, a resposta ao degrau de um sistema LIT de tempo discreto é a convolu- ção do degrau unitário com a resposta ao impulso, ou seja, s[n] = u[n] * h[n]. No entanto, pela propriedade comutativa da convolução, s[n] = h[n] * u[n] e, portanto, s[n] pode ser visto como a resposta à entrada h[n] do sistema LIT de tempo discreto com resposta ao impulso unitário u[n]. Como vimos no Exemplo 2.12, u[n] é a resposta ao impulso unitário do acumulador. Logo, s n h k k n [ ] [ ].= =−∞ ∑ (2.91) Tendo como base essa equação e o Exemplo 2.12, fica claro que h[n] pode ser recuperado a partir de s[n] usan- do a relação h n s n s n[ ] [ ] [ ]= − −1 . (2.92) Ou seja, a resposta ao degrau de um sistema LIT de tempo discreto é a soma cumulativa de sua resposta ao impulso (Equação 2.91). Inversamente, a resposta ao impulso de um sistema LIT de tempo discreto é a diferença de pri- meira ordem de sua resposta ao degrau (Equação 2.92). De maneira similar, em tempo contínuo, a resposta ao degrau de um sistema LIT com resposta ao impulso h(t) é dada por s(t) = u(t) * h(t), que também é igual à resposta de um integrador [com resposta ao impulso u(t)] à entrada h(t). Ou seja, a resposta ao degrau unitário de um sistema LIT de tempo contínuo é a integral de sua resposta ao impulso, ou s t h d t ( ) ( ) ,= −∞∫ τ τ (2.93) e a partir da Equação 2.93, a resposta ao impulso unitário é a primeira derivada da resposta ao degrau unitário,1 ou h t ds t dt s t( ) ( ) '( ).= = (2.94) Portanto, tanto em tempo contínuo como em tempo discreto, a resposta ao degrau unitário também pode ser usada para caracterizar um sistema LIT, já que podemos calcular a resposta ao impulso unitário a partir dela. No Problema 2.45, expressões análogas à soma de convolu- ção e à integral de convolução são obtidas para as repre- sentações de um sistema LIT em termos da sua resposta ao degrau unitário. 2.4 Sistemas LIT causais descritos por equações diferenciais e de diferenças Uma classe extremamente importante de sistemas de tempo contínuo é aquela em que a entrada e a saí- da são relacionadas por meio de uma equação diferencial linear com coeficientes constantes. Essas equações aparecem na descrição de uma grande variedade de sistemas e de fenômenos físicos. Por exemplo, conforme ilustramos no Capítulo 1, a resposta do circuito RC na Figura 1.1 e o movimento de um veículo sujeito a entradas de acelera- ção e forças de atrito, como representado na Figura 1.2, podem ser descritos por meio de uma equação diferencial linear com coeficientes constantes. Equações diferenciais semelhantes surgem na descrição de sistemas mecânicos contendo forças restauradoras e amortecedoras, em ciné- tica das reações químicas e em muitos outros contextos. 1 Em todo o livro, usaremos as duas notações indicadas na Equação 2.94 para nos referirmos às primeiras derivadas. Uma notação análoga será usada para derivadas mais elevadas. 72 Sinais e sistemas Equação 2.95, devemos especificar condições auxiliares. Uma implicação deste fato, ilustrada no Problema 2.34, é que diferentes escolhas das condições auxiliares levam a diferentes relações entre a entrada e a saída. Como ilustramos no exemplo, empregaremos amplamente a condição de repouso inicial para sistemas descritos por equações diferenciais. No exemplo, como a entrada era 0 para t < 0, a condição de repouso inicial implicou a condição inicial y(0) = 0. Como dissemos, e conforme é ilustrado no Problema 2.33, sob a condição de repouso inicial, o sistema descrito pela Equação 2.95 é LIT e cau- sal.3 Por exemplo, se multiplicamos a entrada na Equação 2.96 por 2, a saída resultante seria duas vezes a saída na Equação 2.108. É importante ressaltar que a condição de repouso inicial não especifica uma condição de zero inicial em um ponto fixo no tempo, mas ajusta esse ponto no tempo de modo que a resposta seja zero até que a entrada se torne diferente de zero. Portanto, se x(t) = 0 para t ≤ t 0 para o sistema LIT causal descrito pela Equação 2.95, então y(t) = 0 para t ≤ t 0 , e usaríamos a condição inicial y(t 0 ) = 0 para obter a saída para t > t 0 . Como exemplo físico, con- sidere novamente o circuito na Figura 1.1, discutido também no Exemplo 1.8. O repouso inicial para esse exemplo corresponde ao princípio de que, até conectar- mos uma fonte de tensão diferente de zero ao circuito, a tensão do capacitor é zero. Logo, se começarmos a usar o circuito hoje ao meio-dia, a tensão inicial do capaci- tor quando conectamos a fonte de tensão ao meio-dia é zero. De maneira semelhante, se começarmos a usar o circuito ao meio-dia de amanhã, a tensão inicial do capa- citor no momento em que conectarmos a fonte de tensão ao meio-dia de amanhã é nula. Esse exemplo também nos ajuda a entender por que a condição de repouso inicial torna um sistema descrito por uma equação diferencial linear com coeficientes constan- tes invariante no tempo. Por exemplo, se executamos um experimento em um circuito, começando a partir do re- pouso inicial e depois assumindo que os coeficientes R e C não mudam ao longo do tempo, esperaríamos chegar aos mesmos resultados se fizéssemos o experimento hoje ou amanhã. Ou seja, se executarmos experimentos idênticos nos dois dias, em que um circuito começa em seu repouso inicial ao meio-dia todos os dias, então esperaríamos ter respostas idênticas — isto é, respostas que são simplesmen- te deslocadas no tempo por um dia em relação ao outro. Apesar de termos usado a Equação diferencial de primeira ordem 2.95 como veículo para a discus- são dessas questões, as mesmas ideias se estendem de modo direto para os sistemas descritos por equações diferenciais de ordem mais elevada. Uma equação dife- rencial linear com coeficientes constantes de N-ésima ordem geral é dada por a d y t dt b d x t dtkk N k k k k k k M = = ∑ ∑= 0 0 ( ) ( ) . (2.109) A ordem refere-se à derivada mais alta da saída y(t) que aparece na equação. No caso de N = 0, a Equação 2.109 é reduzida para y t a b d x t dtkk M k k ( ) ( ) .= = ∑1 0 0 (2.110) Nesse caso, y(t) é uma função explícita da entrada x(t) e suas derivadas. Para N ≥ 1, a Equação 2.109 descreve a saída implicitamente em termos da entrada. Nesse caso, a análise da equação procede da mesma forma que em nossa discussão acerca da equação diferencial de primeira ordem no Exemplo 2.14. A solução y(t) consiste em duas partes — uma solução particular para a Equação 2.109 mais uma solução para a equação diferencial homogênea a d y t dtkk N k k = ∑ = 0 0 ( ) . (2.111) Referimo-nos às soluções dessa equação como respostas naturais do sistema. Assim como no caso de primeira ordem, a Equação diferencial 2.109 não define completamente a saída em termos da entrada, e precisamos identificar condições auxi- liares para determinar completamente a relação entrada- -saída do sistema. Mais uma vez, escolhas diferentes para essas condições auxiliares resultam em diferentes rela- ções entrada-saída, mas, na maioria dos casos, neste livro usaremos a condição de repouso inicial quando lidarmos com sistemas descritos por equações diferenciais. Ou seja, se x(t) = 0 para t ≤ t 0 , supomos que y(t) = 0 para t ≤ t 0 e, portanto, a resposta para t > t 0 pode ser calculada a partir da Equação diferencial 2.109 com as condições iniciais y t dy t dt d y t dt N N ( ) ( ) ( ) .0 0 1 0 1 0= = = = − − … (2.112) Sob a condição de repouso inicial, o sistema descrito pela Equação 2.109 é LIT e causal. Dadas as condições iniciais 3 Na verdade, como também é mostrado no Problema 2.34, se a condição inicial para a Equação 2.95 é diferente de zero, o siste- ma resultante é linear por incremento. Ou seja, a resposta geral pode ser vista, de modo semelhante à Figura 1.48, como a su- perposição da resposta às condições iniciais isoladas (com a en- trada sendo 0) e a resposta à entrada com condição inicial 0, isto é, a resposta do sistema LIT causal descrito pela Equação 2.95. Sistemas lineares invariantes no tempo 73 na Equação 2.112, a saída y(t) pode, em princípio, ser determinada pela solução da equação diferencial da ma- neira usada no Exemplo 2.14 e ilustrada em diversos pro- blemas no final do capítulo. No entanto, nos capítulos 4 e 9 desenvolveremos algumas ferramentas para a análise dos sistemas LIT de tempo contínuo que facilitam signi- ficativamente a solução das equações diferenciais e, em particular, fornecem métodos poderosos para a análise e caracterização das propriedades dos sistemas descritos por essas equações. 2.4.2 Equações de diferenças lineares com coeficientes constantes A correspondente de tempo discreto da Equação 2.109 é a equação de diferenças linear com coeficientes constantes de N -ésima ordem a y n k b x n kk k k M k N [ ] [ ].− = − == ∑∑ 00 (2.113) Uma equação desse tipo pode ser resolvida de maneira exatamente análoga à empregada para as equações di- ferenciais. (Ver Problema 2.32.)4 Especificamente, a so- lução y[n] pode ser escrita como a soma de uma solução particular da Equação 2.113 e uma solução da equação homogênea a y n kk k N [ ] .− = = ∑ 0 0 (2.114) As soluções dessa equação homogênea são frequente- mente chamadas de respostas naturais do sistema descri- to pela Equação 2.113. Assim como em tempo contínuo, a Equação 2.113 não descreve completamente a saída em termos da en- trada. Para isso, devemos especificar algumas condições auxiliares. Como há muitas escolhas possíveis para as condições iniciais que levam a diferentes relações entrada- -saída, vamos nos concentrar praticamente apenas na con- dição de repouso inicial — isto é, se x[n] = 0 para n < n 0 , então y[n] = 0 para n < n 0 também. Com o repouso inicial, o sistema descrito pela Equação 2.113 é LIT e causal. Embora todas essas propriedades possam ser de- senvolvidas seguindo uma abordagem que corresponde diretamente à nossa discussão das equações diferenciais, o caso de tempo discreto oferece um caminho alterna- tivo. Esse caminho origina-se da observação de que a Equação 2.113 pode ser reestruturada na forma y n a b x n k a y n kk k k N k M [ ] [ ] [ ]= − − − ⎧ ⎨ ⎪⎪ ⎩⎪⎪ ⎫ == ∑∑1 0 10 ⎬ ⎪⎪ ⎭⎪⎪ . (2.115) A Equação 2.115 expressa de maneira direta a saída no tempo n em termos dos valores prévios da entrada e da saída. A partir dela, percebemos imediatamente a necessi- dade de condições auxiliares. Para calcularmos y[n], preci- samos conhecer y[n – 1],..., y[n − N]. Portanto, se temos a entrada para todo n e um conjunto de condições auxiliares como y[ − N], y[ − N + 1],..., y[ − 1], a Equação 2.115 pode ser resolvida para valores sucessivos de y[n]. Uma equação na forma da Equação 2.113 ou da Equação 2.115 é chamada de equação recursiva, pois ela especifica um procedimento recursivo para determinar- mos a saída em termos da entrada e de saídas prévias. No caso específico de N = 0, a Equação 2.115 reduz-se a y n b a x n kk k M [ ] [ ].= ⎛ ⎝ ⎜⎜⎜⎜ ⎞ ⎠ ⎟⎟⎟⎟ − = ∑ 00 (2.116) Esse é o correspondente em tempo discreto do sistema de tempo contínuo dado na Equação 2.110. Aqui, y[n] é uma função explícita dos valores presentes e prévios da entrada. Por essa razão, a Equação 2.116 costuma ser de- nominada equação não recursiva, pois não usamos recur- sivamente valores da saída calculados previamente para calcular o valor presente da saída. Portanto, assim como no caso do sistema dado na Equação 2.110, não precisamos de condições auxiliares para determinar y[n]. Além disso, a Equação 2.116 define um sistema LIT, e por cálculo direto, obtém-se que a resposta ao impulso desse sistema é h n b a n Mn [ ] , , .= ≤ ≤ ⎧ ⎨ ⎪⎪⎪⎪ ⎩ ⎪⎪⎪⎪ 0 caso contrário 0 0 (2.117) Ou seja, a Equação 2.116 nada é além de uma soma de convolução. Note-se que a resposta ao impulso para ela tem duração finita, isto é, é diferente de zero somente durante um intervalo de tempo de duração finita. Por causa dessa propriedade, o sistema especificado pela Equa- ção 2.116 costuma ser chamado de sistema com resposta ao impulso de duração finita (FIR – Finite Impulse Response). Embora não sejam necessárias condições auxiliares para o caso N = 0, tais condições são necessárias para o caso recursivo em que N ≥ 1. Para ilustrar a solução desse tipo de equação e para compreender um pouco mais o 4 Para uma abordagem detalhada dos métodos de resolução de equações de diferenças lineares com coeficientes constantes, ver Finite Difference Equations, de LEVY, H.; LESSMAN, F. (Nova York: Macmillan, Inc., 1961), ou Finite Difference Equations and Simulations (Englewood Cliffs: Prentice-Hall, 1968), de HILDEBRAND, F. B. No Capítulo 6, apresentamos outro método para resolver as equações de diferenças, o qual facilita bastante a análise dos siste- mas lineares invariantes no tempo que são descritos dessa forma. Além disso, indicamos ao leitor os problemas que lidam com a solução de equações de diferenças, no fim deste capítulo. 74 Sinais e sistemas comportamento e as propriedades das equações de dife- renças recursivas, vamos examinar um exemplo simples: Exemplo 2.15 Considere a equação de diferença y n y n x n[ ] [ ] [ ].− − = 1 2 1 (2.118) A Equação 2.118 também pode ser expressa na forma y n x n y n[ ] [ ] [ ],= + − 1 2 1 (2.119) destacando o fato de que precisamos do valor prévio da saída, y[n – 1], para calcular o valor corrente. Portanto, para come- çar a recursão, precisamos de uma condição inicial. Por exemplo, vamos impor a condição de repouso ini- cial e considerar a entrada x[n] = Kδ[n]. (2.120) Nesse caso, como x[n] = 0 para n ≤ −1, a condição de re- pouso inicial indica que y[n] = 0 para n ≤ −1, e temos como condição inicial y[−1] = 0. Começando com essa condição inicial, podemos encontrar valores sucessivos de y[n] para n ≥ 0 conforme se segue: y x y K[ ] [ ] [ ] ,0 0 1 2 1= + − = (2.121) y x y K[ ] [ ] [ ] ,1 1 1 2 0 1 2 = + = (2.122) y x y K[ ] [ ] [ ] ,2 2 1 2 1 1 2 2 = + = ⎛ ⎝ ⎜⎜⎜ ⎞ ⎠ ⎟⎟⎟⎟  (2.123) y n x n y n K n [ ] [ ] [ ] .= + − = ⎛ ⎝ ⎜⎜⎜ ⎞ ⎠ ⎟⎟⎟⎟ 1 2 1 1 2 (2.124) Como o sistema especificado pela Equação 2.118 e a condição de repouso inicial é LIT, seu comportamento entrada-saída é totalmente caracterizado por sua resposta ao impulso. Es- tabelecendo K = 1, vemos que a resposta ao impulso para o sistema considerado neste exemplo é h n u n n [ ] [ ].= ⎛ ⎝ ⎜⎜⎜ ⎞ ⎠ ⎟⎟⎟⎟ 1 2 (2.125) Note que o sistema LIT causal no Exemplo 2.15 tem resposta ao impulso de duração infinita. De fato, se N ≥ 1 na Equação 2.113, de modo que a equação de diferenças seja recursiva, então, usualmente, o sistema LIT correspondente a essa equação, juntamente com a condição de repouso ini- cial, tem uma resposta ao impulso de duração infinita. Tais sistemas comumente são chamados de sistemas com resposta ao impulso de duração infinita (IIR– Infinite Impulse Response). Conforme indicamos, na maior parte do livro usa- remos as equações de diferenças recursivas no contexto de descrição e análise dos sistemas lineares, invariantes no tempo e causais; como consequência, assumiremos a condição de repouso inicial quase sempre. Nos capítulos 5 e 10, desenvolveremos ferramentas para a análise de sistemas de tempo discreto que nos fornecerão métodos bastante úteis e eficientes para resolver equações de dife- renças lineares com coeficientes constantes e para anali- sar as propriedades dos sistemas que elas descrevem. 2.4.3 Representações em diagrama de blocos de sistemas de primeira ordem descritos por equações diferenciais e de diferenças Uma propriedade importante dos sistemas descritos por equações diferenciais e de diferenças lineares com co- eficientes constantes é que eles podem ser representadas de maneiras bem simples e naturais em termos de in- terconexões das operações elementares em diagramas de blocos. Isso é significativo por uma série de razões. Uma delas é que esse fato fornece uma representação gráfica capaz de ajudar na nossa compreensão do comportamen- to e das propriedades desses sistemas. Além disso, essas representações podem ter valor considerável para a si- mulação ou implementação dos sistemas. Por exemplo, a representação em diagrama de blocos que apresenta- remos nesta seção para os sistemas em tempo contínuo é a base das primeiras simulações em computadores ana- lógicos dos sistemas descritos por equações diferenciais e também pode ser diretamente transformada em um programa para a simulação de um sistema desse tipo em um computador digital. Além do mais, a representação correspondente para as equações de diferenças de tem- po discreto sugere formas simples e eficazes nas quais os sistemas descritos pelas equações podem ser implementa- dos em hardware digital. Nesta seção, ilustramos as ideias básicas por trás dessas representações em diagramas de blocos construindo-as para os sistemas causais de primei- ra ordem introduzidos nos exemplos 1.8 a 1.11. Nos pro- blemas 2.57 a 2.60 e nos capítulos 9 e 10, consideramos os diagramas de blocos para sistemas descritos por outras equações diferenciais e de diferenças mais complexas. Começamos com o caso de tempo discreto e, em particular, com o sistema causal definido pela equação de diferenças de primeira ordem y[n] + ay[n – 1] = bx[n]. (2.126) Para criar uma representação em diagrama de blocos des- se sistema, note que o cálculo da Equação 2.126 requer
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved