domingo, 9 de fevereiro de 2020


FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS =


TRANSFORMAÇÕES ⇔ INTERAÇÕES  ⇔  TUNELAMENTO ⇔ EMARANHAMENTO ⇔ CONDUTIVIDADE  ⇔ DIFRAÇÕES ⇔ estrutura eletrônica, spin, radioatividade, ABSORÇÕES E EMISSÕES INTERNA ⇔  Δ de temperatura e dinâmicas, transições de estados quântico Δ ENERGIAS,     Δ MASSA ,    Δ  CAMADAS ORBITAIS ,    Δ FENÔMENOS  ,  ⇔  Δ  DINÂMICAS,     Δ  VALÊNCIAS,     Δ BANDAS,  Δ  entropia e de entalpia,  E OUTROS.  

x
 [EQUAÇÃO DE DIRAC].

 + FUNÇÃO TÉRMICA.

   +    FUNÇÃO DE RADIOATIVIDADE

  ,      +   FUNÇÃO DE TUNELAMENTO QUÂNTICO.

  + ENTROPIA REVERSÍVEL 

+      FUNÇÃO DE CONDUÇÃO ELETROMAGNÉTICA

 ENERGIA DE PLANCK

X


  • V [R] [MA] =  Δe,M, Δf, ΔE, Δt, Δi, ΔT, ΔC, ΔE,ΔA, ΔD, ΔM......
    ΤDCG
    X
    Δe, ΔM, Δf, ΔE, Δt, Δi, ΔT, ΔC, ΔE,ΔA, ΔD, ΔM......  =
    x
    sistema de dez dimensões de Graceli + 
    DIMENSÕES EXTRAS DO SISTEMA DECADIMENSIONAL E CATEGORIAL GRACELI.[como, spins, posicionamento, afastamento, ESTRUTURA ELETRÔNICA, e outras já relacionadas]..

  • DIMENSÕES DE FASES DE ESTADOS DE TRANSIÇÕES DE GRACELI.
    x
    sistema de transições de estados, e estados  de Graceli, fluxos aleatórios quântico, potencial entrópico e de entalpia. [estados de transições de fases de estados de estruturas, quântico, fenomênico, de energias, e dimensional [sistema de estados de Graceli].
    x
número atômico, estrutura eletrônica, níveis de energia 
onde c, velocidade da luz, é igual a .]


  • TEMPO ESPECÍFICO E FENOMÊNICO DE GRACELI
  • x
  • X
  • T l    T l     E l       Fl         dfG l   
    N l    El                 tf l
    P l    Ml                 tfefel 
    Ta l   Rl
             Ll
             D



Sistema de partículas em interação

Origem: Wikipédia, a enciclopédia livre.
Saltar para a navegaçãoSaltar para a pesquisa
Na teoria da probabilidade, um sistema de partículas em interação (IPS) é um processo estocástico  em algum espaço de configuração  dado por um espaço de sítio, um grafo infinito contável  e um espaço de estado local, um espaço métrico compacto .[1] Mais precisamente, IPSs são processos de Marvok de tempo contínuo que descrevem o comportamento coletivo de componentes estocasticamente em interação. IPSs são os análogo de tempo contínuo dos autômatos celulares estocásticos. Entre os principais exemplos são o modelo de eleições, o processo de contato, o processo de exclusão simples  assimétrico (PESA), a dinâmica de Glauber e, em particular, o modelo Ising estocástico.[2]
IPS são geralmente definidos através de seus geradores de Markov dando origem a um processo de Markov único utilizando semigrupos de Markov e o teorema de Hille-Yosida. Novamente o gerador é dada através das denominadas taxas de transição  onde  é um conjunto finito de sítios e  com  para todo . As taxas descrevem tempos de espera exponenciais do processo para saltar da configuração  para a configuração . Geralmente, as taxas de transição são dadas na forma de uma medida finita  em .
O gerador  de um IPS tem a seguinte forma: primeiro, o domínio de  é um subconjunto do espaço de "observáveis", isto é, o conjunto de valores reais de funções contínuas no espaço de configuração . Em seguida, para qualquer  observável no domínio de , tem-se
.
X

FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



Por exemplo, para o modelo Ising estocástico temos  se  para alguns  e
X

FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



onde  é a configuração igual a  exceto que ela é invertida no sítio . é um novo parâmetro modelando a temperatura inversa.








Em processamento de sinal, o ruído branco é um sinal aleatório com igual intensidade em diferentes frequências, o que lhe dá uma densidade espectral de potência constante.[1] Com este significado e outros semelhantes, o termo é usado em muitas disciplinas científicas e técnicas, incluindo físicaengenharia acústicatelecomunicaçõesprevisão estatística e muitas outras. O ruído branco se refere a um modelo estatístico para sinais e fontes de sinal, em vez de qualquer sinal específico.
Uma imagem de "ruído branco"
Em tempo discreto, o ruído branco é um sinal discreto cujas amostras são vistas como uma seqüência de variáveis aleatórias não autocorrelacionadas com média zero e variância finita. Uma única ocorrência de ruído branco é um choque aleatório. Dependendo do contexto, pode-se também exigir que as amostras sejam independentes e tenham distribuição de probabilidade idêntica (em outras palavras, variáveis aleatórias independentes e identicamente distribuídas são a representação mais simples de ruído branco).[2] Em particular, se cada amostra tem uma distribuição normal com média zero, o sinal é chamado de ruído branco gaussiano.[3]
As amostras de um sinal de ruído branco podem ser sequenciais no tempo ou dispostas ao longo de uma ou mais dimensões espaciais. No processamento digital de imagem, os pixels de uma imagem de ruído branco são dispostos tipicamente em uma grade retangular e assumidos como variáveis aleatórias independentes com distribuição de probabilidade uniforme ao longo de algum intervalo. O conceito pode ser definido também para sinais espalhados por domínios mais complexos, como uma esfera ou um toro.
MENU
0:00
Um exemplo de som de "ruído branco"
Um sinal de ruído branco de largura de banda infinita é uma construção puramente teórica. A largura de banda do ruído branco é limitada na prática pelo mecanismo de geração de ruído, pelo meio de transmissão e pelas capacidades finitas de observação. Assim, um sinal aleatório é considerado "ruído branco" se for observado que tem um espectro plano ao longo da gama de frequências relevante ao contexto. Para um sinal de áudio, por exemplo, a faixa relevante é a faixa de frequências de som audíveis, entre 20 e 20.000 Hz. Esse sinal é ouvido como um som sibilante, semelhante ao som /ch/ em "chave". Em música e acústica, o termo "ruído branco" pode ser usado para qualquer sinal que tenha um som semelhantemente sibilante.
O termo "ruído branco" deriva da luz branca,[4] ainda que a luz que aparece branca não tenha geralmente uma densidade espectral de potência plana ao longo da faixa visível.
O termo ruído branco é às vezes usado no contexto dos métodos filogenéticos comparativos em estatística para se referir à falta de padrão filogenético em dados comparativos.[5] Por vezes, é usado em contextos não técnicos, no sentido metafórico de "conversa aleatória sem conteúdos significativos".[6][7]

    Propriedades estatísticas[editar | editar código-fonte]

    Espectrograma de ruído rosa (à esquerda) e ruído branco (à direita) mostrado com eixo de frequência linear (vertical) versus eixo de tempo (horizontal)
    Estar não correlacionado no tempo não restringe os valores que um sinal pode ter. Qualquer distribuição de valores é possível (no entanto, deve haver polarização de corrente contínua zero). Mesmo um sinal binário que só pode assumir os valores 1 ou -1 será branco se a seqüência for estatisticamente não correlacionada. O ruído que tem uma distribuição contínua, tal como uma distribuição normal, pode naturalmente ser branco.
    É freqüentemente assumido de forma incorreta que o ruído gaussiano (isto é, o ruído com distribuição de amplitude gaussiana, ou seja, distribuição normal) se refere necessariamente ao ruído branco, ainda que nenhuma das duas propriedades implique a outra. O caráter gaussiano diz respeito à distribuição de probabilidade no que tange ao valor, neste contexto, a probabilidade de que o sinal caia em qualquer faixa particular de amplitudes, enquanto o termo "branco" refere-se à forma como a potência do sinal é distribuído (ou seja, independentemente) ao longo do tempo ou entre freqüências.
    Podemos, portanto, encontrar ruídos brancos de Gauss, mas também ruídos brancos de Poisson e de Cauchy, por exemplo. Assim, as duas palavras ("gaussiano" e "branco") são ambas muitas vezes especificadas em modelos matemáticos de sistemas. O ruído branco gaussiano é uma boa aproximação de muitas situações do mundo real e gera modelos matematicamente tratáveis. Estes modelos são usados com tanta frequência que o termo ruído gaussiano branco aditivo tem uma abreviação padrão: AWGN (Additive White Gaussian Noise, em inglês).
    O ruído branco é a derivada quadrática média generalizada do processo de Wiener ou movimento browniano.
    Uma generalização para elementos aleatórios em espaços dimensionais infinitos, como campos aleatórios, é a medida de ruído branco ou espaço nuclear.

    Aplicações práticas[editar | editar código-fonte]

    Música[editar | editar código-fonte]

    O ruído branco é comumente usado na produção de música eletrônica, geralmente de forma direta ou como entrada para um filtro a fim de criar outros tipos de sinal de ruído. É usado extensivamente na síntese de áudio, normalmente para recriar instrumentos de percussão, tais como pratos ou caixas, que têm alto conteúdo de ruído em seu domínio de freqüência.

    Engenharia eletrônica[editar | editar código-fonte]

    O ruído branco é também usado para obter a resposta ao impulso de um circuito elétrico, em particular de amplificadores e outros equipamentos de áudio. Ele não é usado para testar alto-falantes já que seu espectro contém uma quantidade muito grande de conteúdo de alta freqüência. O ruído rosa, que difere do ruído branco por ter energia igual em cada oitava, é usado para testar transdutores como alto-falantes e microfones.

    Acústica[editar | editar código-fonte]

    Para configurar a equalização para um concerto ou outra performance em um local, uma pequena explosão de ruído branco ou rosa é enviada pelo sistema de PA (Public Address, em inglês) e monitorada a partir de vários pontos no local para que o engenheiro possa dizer se a acústica do local naturalmente aumenta ou corta qualquer freqüência. O engenheiro pode então ajustar a equalização geral para assegurar uma mistura equilibrada.

    Computação[editar | editar código-fonte]

    O ruído branco é usado como base de alguns geradores de números aleatórios. Por exemplo, o Random.org usa um sistema de antenas atmosféricas para gerar padrões de dígitos aleatórios a partir de ruído branco.

    Tratamento de zumbido[editar | editar código-fonte]

    O ruído branco é uma fonte comum de ruído sintético usada para mascaramento sonoro por um mascarador de zumbido.[8] As máquinas de ruído branco e outras fontes de ruído branco são vendidas como intensificadores de privacidade, auxiliares de sono e mascaradores de zumbido.[9] Uma alternativa é o uso de um rádio FM sintonizado em frequências não usadas ("estáticas"), fonte mais simples e acessível de ruído branco.[10] No entanto, o ruído branco gerado por um receptor comum de rádio comercial sintonizado em uma frequência não usada é extremamente vulnerável à contaminação por sinais espúrios, tais como estações de rádio adjacentes, harmônicas de estações de rádio não adjacentes, equipamento elétrico nas proximidades da antena de recepção causando Interferências ou mesmo eventos atmosféricos, tais como luz solar e especialmente raios.

    Ambiente de trabalho[editar | editar código-fonte]

    Os efeitos do ruído branco sobre a função cognitiva são ambíguos. Recentemente, um pequeno estudo descobriu que a estimulação de fundo por ruído branco melhora o funcionamento cognitivo em estudantes de segundo grau com transtorno de déficit de atenção com hiperatividade (TDAH), ao mesmo tempo que diminui o desempenho de estudantes que não têm TDAH.[11][12] Outro trabalho indica que é eficaz na melhoria do humor e desempenho dos trabalhadores por mascarar o ruído do escritório em segundo plano,[13] mas diminui o desempenho cognitivo em tarefas complexas de classificação de cartões.[14]

    Definições matemáticas[editar | editar código-fonte]

    Vetor de ruído branco[editar | editar código-fonte]

    Um vetor aleatório (isto é, um processo parcialmente indeterminado que produz vetores de números reais) é um vetor de ruído branco ou um vetor aleatório branco se seus componentes tiverem cada um uma distribuição de probabilidade com média zero e variância finita e forem estatisticamente não correlacionados, ou seja, sua distribuição de probabilidade conjunta deve ser o produto das distribuições dos componentes individuais.[15]
    Uma condição necessária (mas, em geral, insuficiente) para a independência estatística de duas variáveis é que elas sejam estatisticamente não correlacionadas, isto é, sua covariância seja zero. Portanto, a matriz de covariância  dos componentes de um vetor de ruído branco  com  elementos deve ser uma matriz diagonal  por , em que cada elemento diagonal ii é a variância do componente ; e a matriz de correlação deve ser a matriz identidade  por .
    Em particular, se, além de independentes, toda variável em  também tiver uma distribuição normal com média zero e mesma variância  é um vetor gaussiano de ruído branco. Neste caso, a distribuição conjunta de  é uma distribuição normal multivariada. A independência entre as variáveis implica então que a distribuição tem simetria esférica no espaço -dimensional. Portanto, qualquer transformação ortogonal do vetor resultará em um vetor aleatório branco gaussiano. Em particular, sob a maioria dos tipos de transformada discreta de Fourier, tais como a transformada rápida de Fourier e a transformada discreta de Hartley, a transformada  de  também será um vetor de ruído branco gaussiano, isto é, os  coeficientes de Fourier de  serão variáveis gaussianas independentes com média zero e mesma variância .
    espectro de potência  de um vetor aleatório  pode ser definido como o valor esperado do módulo ao quadrado de cada coeficiente de sua transformada de Fourier , isto é, . Sob esta definição, um vetor de ruído branco gaussiano terá um espectro de potência perfeitamente plano, com  para todo .
    Se  for um vetor aleatório branco, mas não gaussiano, seus coeficientes de Fourier  não serão completamente independentes uns dos outros, ainda que, para grandes  e distribuições de probabilidade comuns, as dependências sejam muito sutis e suas correlações entre pares possam ser assumidas como iguais a zero.
    Muitas vezes, a condição mais fraca "estatisticamente não correlacionado" é usada na definição de ruído branco, em vez de "estatisticamente independente". No entanto, algumas das propriedades comumente esperadas do ruído branco (como o espectro de potência plano) podem não ser válidas para esta versão mais fraca. Sob este pressuposto, a versão mais estrita pode ser referida explicitamente como vetor independente de ruído branco.[16] Outros autores usam fortemente branco e fracamente branco.[17]
    Um exemplo de um vetor aleatório que é de "ruído branco gaussiano" no sentido fraco, mas não no forte é , em que  é uma variável aleatória normal com média zero e  é igual a  ou a , com igual probabilidade. Estas duas variáveis são não correlacionadas e normalmente distribuídas individualmente, mas não são normalmente distribuídas conjuntamente, nem independentes. Se  for rotacionado em 45 graus, seus dois componentes ainda serão não correlacionados, mas suas distribuições não serão mais normais.
    Em algumas situações, pode-se relaxar a definição, permitindo que cada componente de um vetor aleatório branco  tenha um valor esperado  diferente de zero. Especialmente no processamento de imagens, em que as amostras são tipicamente restritas a valores positivos, pode-se tomar  como a metade do valor máximo da amostra. Neste caso, o coeficiente de Fourier  correspondente ao componente de frequência zero também terá um valor esperado não nulo  e o espectro de potência  será plano apenas sobre as frequências não nulas.

    Ruído branco de tempo contínuo[editar | editar código-fonte]

    Para definir a noção de "ruído branco" na teoria dos sinais de tempo contínuo, deve-se substituir o conceito de "vetor aleatório" por um sinal aleatório de tempo contínuo, isto é, um processo aleatório que gera uma função  de um parâmetro de valor real .
    Tal processo é um ruído branco no sentido mais forte se o valor  para qualquer tempo  for uma variável aleatória estatisticamente independente de toda a sua história antes de . Uma definição mais fraca exige independência apenas entre os valores  e  a cada par de tempos distintos  e . Uma definição ainda mais fraca requer apenas que estes pares  e  sejam não correlacionados.[18] Como no caso discreto, alguns autores adotam a definição mais fraca para "ruído branco" e usam o termo independente para se referir a uma das definições mais fortes. Outros usam fracamente branco e fortemente branco para fazer a distinção.
    No entanto, uma definição precisa destes conceitos não é trivial, porque algumas quantidades que forem somas finitas no caso discreto finito devem ser substituídas por integrais que podem não convergir. De fato, o conjunto de todas as instâncias possíveis de um sinal  não é mais um espaço de dimensão finita , mas um espaço funcional de dimensões infinitas. Além disso, por qualquer definição, um sinal de ruído branco  teria que ser essencialmente descontínuo em cada ponto. Portanto, mesmo as operações mais simples envolvendo , como a integração em um intervalo finito, exigem mecanismos matemáticos avançados.
    Alguns autores exigem que cada valor  seja uma variável aleatória de valor real com valor esperado  e alguma variação finita . Então, a covariância  entre os valores em dois tempos  e  está bem definida: será zero se os tempos forem distintos e  se forem iguais. Contudo, por esta definição, a integral
    X

    FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



    sobre qualquer intervalo com largura positiva  seria simplesmente o produto da largura pela expectativa: . Esta propriedade tornaria o conceito inadequado como um modelo de sinais físicos de "ruído branco".
    Portanto, a maioria dos autores define o sinal  indiretamente, especificando valores não nulos para as integrais de  e  ao longo de qualquer intervalo , como uma função de sua largura . Nesta abordagem, entretanto, o valor de  em um tempo isolado não pode ser definido como uma variável aleatória de valor real. Além disso, a covariância  se torna infinita quando ; e a função autocorrelação  deve ser definida como , em que  é alguma constante real e  é a função delta de Dirac.
    Nesta abordagem, especifica-se normalmente que a integral  de  ao longo de um intervalo  é uma variável aleatória real com distribuição normal, média zero e variância ; e também que a covariância  das integrais  é , em que  é a largura da interseção  dos dois intervalos . Este modelo é chamado de sinal (ou processode ruído branco gaussiano.





    Ruído gaussiano é um ruído estatístico cuja função densidade de probabilidade (FDP) é igual a da distribuição normal, que é também conhecida como distribuição gaussiana.[1][2]
    A função densidade de probabilidade  de uma variável aleatória gaussiana  é dada por:
    X

    FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



    sendo que  representa o tom de cinza,  a média e  e desvio padrão.[3]





    Em matemática, o teorema da continuidade de Kolmogorov é um teorema que garante que um processo estocástico que satisfaz certas condições quanto aos momentos de seus incrementos seja contínuo (ou, mais precisamente, tenha uma "versão contínua"), Recebe este nome em homenagem ao matemático soviético Andrei Kolmogorov.[1]

      Demonstração[editar | editar código-fonte]

      Considere  um espaço métrico completo tal que  é  mensurável e considere  um processo estocástico. Suponha que, para todos os tempos , há constantes positivas  tal que
      X

      FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS




      para todo . Então, há uma modificação de  que é um processo contínuo, isto é, um processo  tal que
      •  é um processo contínuo amostral;
      • Para todo momento .
      • X
      • FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS


      Além disto, os caminhos de  são localmente -Hölder-contínuos para todo .[2]





      Em matemática, o teorema da extensão de Kolmogorov (também conhecido como teorema da existência de Kolmogorov ou teorema da consistência de Kolmogorov) é um teorema que garante que uma coleção adequadamente "consistente" de distribuições de dimensões finitas definirá um processo estocástico. Recebe este nome em homenagem ao matemático russo Andrei Kolmogorov.[1]

        Afirmação[editar | editar código-fonte]

        Considere que  denota algum intervalo (pensado como "tempo") e que . Para cada  e uma sequência finita de tempos distintos , considere medida de probabilidade em . Suponha que estas medidas satisfaçam duas condições de consistência:
        1. Para todas as permutações  de  e conjuntos mensuráveis ,
        X

        FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS


        2. Para todos os conjuntos mensuráveis 
        X

        FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



        Então, há um espaço de probabilidade  e um processo estocástico , tal que
        X

        FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



        para todo , todo  e para os conjuntos mensuráveis , isto é,  tem  como suas distribuições de dimensões finitas relativas aos tempos .[1]
        Na verdade, é sempre possível tomar  como espaço de probabilidade subjacente e assumir para  o processo canônico . Por isso, uma forma alternativa de afirmar o teorema da extensão de Kolmogorov é dizer que, garantida a aplicação das condições de consistência descritas acima, há uma (única) medida  em  com marginais  para qualquer coleção finita de tempos . O teorema da extensão de Kolmogorov se aplica quando  é incontável, mas o preço a se pagar para este nível de generalidade é que a medida  é definida apenas na sigma-álgebra produto de , o que não é muito valioso.




        Teorema de Donsker

        Origem: Wikipédia, a enciclopédia livre.
        Saltar para a navegaçãoSaltar para a pesquisa
        Em teoria da probabilidade, o teorema de Donsker (também conhecido como princípio da invariância de Donsker, ou teorema central do limite funcional), em homenagem ao matemático Monroe D. Donsker, é uma extensão funcional do teorema central do limite.[1]

          Definição formal[editar | editar código-fonte]

          Seja  uma sequência de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) com média 0 e variância 1. Seja 
          X

          FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



          processo estocástico  é conhecido como um passeio aleatório. Definindo o passeio aleatório escalado por
          X

          FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



          teorema central do limite afirma que  converge em distribuição para uma variável aleatória gaussiana padrão  conforme . O princípio da invariância de Donsker[1][2] extende essa convergência para toda a função . Mais precisamente, em sua forma moderna, o princípio da invariância de Donsker afirma que: com variáveis aleatórias tomando valores no espaço de Skorokhod , a função aleatória  converge em distribuição para um movimento browniano padrão  conforme 
          Seja  a função distribuição empírica da sequência das variáveis aleatórias i.i.d.  com função de distribuição . Definindo a versão centrada e reduzida de  por
          X

          FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



          indexadas por . Pelo teorema central do limite clássico, para  fixo, a variável aleatória  converge em distribuição para uma variável aleatória gaussiana normal , com média zero e variância de  conforme o tamanho da amostra  cresce.
          Teorema (Donsker, Skorokhod, Kolmogorov) — A sequência de Gn(x), como elementos aleatórios do espaço de Skorokhod converge em distribuição para um processo gaussiano G com média zero e covariância dada por
          X

          FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



          O processo  pode ser escrito como , onde  é uma ponte browniana padrão no intervalo unitário.




          Teorema de Girsanov

          Origem: Wikipédia, a enciclopédia livre.
          Saltar para a navegaçãoSaltar para a pesquisa
          Visualização do teorema de Girsanov. O lado esquerdo mostra um processo de Wiener negativo; do lado direito, cada etapa do processo está colorido de acordo com a probabilidade na medida Q. A densidade de transformação de P a Q é dada pelo teorema de Girsanov.
          Na teoria da probabilidade, o teorema de Girsanov (em nome de Igor Vladimirovich Girsanov) descreve como a dinâmica de processos estocásticos muda quando o a medida original é alterada para uma medida da probabilidade equivalente.[1]:607 O teorema é especialmente importante na teoria da matemática financeira, na medida em que converte a probabilidade de uma medida física que descreve a probabilidade de que um ativo subjacente (como um preço ou uma taxa de juros) ter um determinado valor ou valores em uma medida de risco-neutro, uma uma ferramenta muito útil para o cálculo de preços derivados do subjacente.

            História[editar | editar código-fonte]

            Resultados deste tipo foram pela primeira vez demonstrados por Cameron–Martin na década de 1940 e por Girsanov, em 1960.[2] Eles foram, posteriormente, estendido para classes mais gerais de processo que culminaram na forma geral de Lenglart (1977).

            Significado[editar | editar código-fonte]

            O teorema de Girsanov é importante na teoria geral de processos estocásticos, pois permite que o resultado-chave de que se Q é uma medida absolutamente contínua com respeito a P , então, todo P-semimartingale é um Q-semimartingale.[3]

            Demonstração do teorema[editar | editar código-fonte]

            Apresentamos o teorema primeiro para o caso especial quando o processo estocástico subjacente é um processo de Wiener. Este caso especial é suficiente para preços de risco-neutro no modelo de Black-Scholes e em muitos outros modelos (por exemplo, modelos contínuos).
            Deixe  ser um processo de Wiener espaço de probabilidade Wiener . Deixe  ser um processo adaptado mensurável para a filtragem natural do processo de Wiener com .
            Defina o exponencial Doléans  de X com respeito a W
            X

            FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS


            Se  é um martingale estritamente positivo, uma medida de probabilidade Q pode ser definida em  de tal forma a termos um derivativo de de Radon–Nikodym
            X

            FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



            Em seguida, para cada t a medida Q restrita para os campos sigma não aumentados  é equivalente a P restrito a . Além disso, se Y é um local de martingale em P, então o processo
            é um Q local de martingale no espaço de probabilidade filtrado .




            Variação quadrática

            Origem: Wikipédia, a enciclopédia livre.
            Saltar para a navegaçãoSaltar para a pesquisa
            Em matemática, a variação quadrática é usada na análise de processos estocásticos, como o movimento browniano e outros martingales. A variação quadrática é só mais um tipo de variação de um processo.

              Definição[editar | editar código-fonte]

              Suponha que  é um processo estocástico de valores reais definido em um espaço de probabilidade  e com um índice de tempo  que varia entre os números reais não-negativos. Sua variação quadrática é o processo, escrito como , definido como
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



              em que  varia entre as partições do intervalo  e a norma da partição P é a malha. Este limite, se existe, é definido usando a convergência de variáveis aleatórias. Note que um processo pode ser de variação quadrática finita no sentido da definição dada aqui e seus caminhos podem ser, não obstante, quase certamente de variação quadrática infinita para todo  no sentido clássico de tomar o supremo da soma de todas as partições; este é particularmente o caso do movimento browniano.
              Mais geralmente, a covariância (ou variância cruzada) de dois processos  e  é
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS


              A covariância pode ser escrita em termos de variação quadrática pela identidade de polarização:
              [1]
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



              Processos de variação finita[editar | editar código-fonte]

              Diz-se que um processo  tem variação finita se tiver variação limitada para cada intervalo de tempo finito (com probabilidade 1). Tais processos são muito comuns e incluem, particularmente, todas as funções continuamente diferenciáveis. A variação quadrática existe para todos os processos de variação contínua e finita e é zero.
              Esta afirmação pode ser generalizada a processos não-contínuos. Qualquer processo de variação finita càdlàg  tem variação quadrática igual à soma dos quadrados dos saltos de . Para afirmar isto mais precisamente, o limite à esquerda de  referente a  é denotado por  e o salto de  no tempo  pode ser escrito como . Então, a variação quadrática é dada por
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS


              A prova de que processos de variação finita e contínua têm variação quadrática zero segue da seguinte desigualdade. Aqui,  é uma partição do intervalo  e  é a variação de  sobre .
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



              Pela continuidade de , este desaparece no limite conforme  vai a zero.

              Processos de Itō[editar | editar código-fonte]

              A variação quadrática de um movimento browniano padrão  existe e é dada por . Isto se generaliza a processos de Itō que, por definição, podem ser expressos em termos de integrais de Itō
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS


              em que  é um movimento browniano. Qualquer processo como tal tem variação quadrática dada por
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



              Semimartingales[editar | editar código-fonte]

              É possível mostrar que variações e covariâncias quadráticas de todos os semimartingales existem. Eles formam uma parte importante da teoria do cálculo estocástico, aparecendo no lema de Itō, que é a generalização da regra da cadeia da integral de Itō. A covariância quadrática também aparece na fórmula de integração por partes.
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS


              que pode ser usada para computar .
              De outra forma, isto pode ser escrito como uma equação diferencial estocástica:
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



              em que

              Martingales[editar | editar código-fonte]

              Todos os martingales càdlàg e martingales locais têm variação quadrática bem definida, que segue do fato de que tais processos são exemplos de semimartingales. Pode ser mostrado que a variação quadrática  de um martingale localmente quadrado integrável é o único processo contínuo à direita e crescente a partir de zero, com saltos , tal que  é um martingale local. Uma prova da existência de  (sem uso de cálculo estocástico) é dada em Karandikar-Rao.[2]
              Um resultado útil para martingales quadrado integráveis é a isometria de Itō, que pode ser usada para calcular a variância de integrais de Itō,
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS


              Este resultado se mantém sempre que  for um martingale quadrado integrável càdlàg e  for um processo previsível limitado, sendo frequentemente usado na construção da integral de Itō.
              Outro importante resultado é a desigualdade de Burkholder-Davis-Gundy, que dá limites ao máximo de um martingale nos termos da variação quadrática. Para um martingale local  começando em zero, com máximo denotado por  e qualquer número real , a desigualdade é
              X

              FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE  INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI.E DE ESTADOS TRANSICIONAIS



              Aqui,  são constantes que dependem da escolha de , mas não do martingale  ou do tempo  usado. Se  for um martingale local contínuo, então a desigualdade de Burkholder-Davis-Gundy se mantém para qualquer .
              Um processo alternativo, a variação quadrática previsível, é usado às vezes para martingales localmente quadrado integráveis. É escrita como  e definida como sendo o único processo previsível contínuo à direita e crescente a partir de zero, tal que  é um martingale local. Sua existência segue do teorema da decomposição de Doob-Meyer e, para martingales locais contínuos, é igual à variação quadrática.