Tuesday 5 February 2019

Andrei malkov forex trading


Gráficos de ponto de distribuição MFE e MAE Os valores de lucro máximo (MFE) e perda máxima (MAE) são registrados para cada ordem aberta durante a vida útil. Esses parâmetros caracterizam adicionalmente cada ordem fechada usando os valores do potencial máximo não realizado e do risco máximo permitido. Os gráficos de distribuição MFEProfit e MAEProfit exibem cada ordem como um ponto com o valor de lucro obtido do lucro ao longo do eixo X, enquanto os valores máximos exibidos de lucro potencial (MFE) e perda de potencial (MAE) são plotados ao longo do eixo Y. Coloque o cursor sobre as legendas dos parâmetros para ver as melhores e piores séries de negociação. Saiba mais sobre as distribuições MAE e MFE no artigo Matemática na negociação: como estimar os resultados do comércio. Os modelos estatísticos chamados de modelos de Markov escondidos são um tema recorrente em biologia computacional. O que são os modelos escondidos de Markov e por que eles são tão úteis para tantos problemas diferentes. Introdução Muitas vezes, a análise da sequência biológica é apenas uma questão de colocar o rótulo certo sobre cada resíduo. Na identificação de genes, queremos rotular os nucleótidos como exões, intrões ou seqüências intergênicas. Em alinhamento de seqüência, queremos associar resíduos em uma seqüência de consulta com resíduos homólogos em uma seqüência de banco de dados de destino. Nós sempre podemos escrever um programa ad hoc para qualquer problema dado, mas os mesmos problemas frustrantes sempre se repetirão. Um deles é que queremos incorporar fontes de informação heterogêneas. Um genefinder, por exemplo, deve combinar o consenso do site, o viés do codão, as preferências do comprimento do intrão do exão e a análise do quadro de leitura aberta em um sistema de pontuação. Como devem ser definidos esses parâmetros Como os diferentes tipos de informação podem ser ponderados Uma segunda questão é interpretar os resultados de forma probabilística. Encontrar uma resposta melhor pontuação é uma coisa, mas o que significa a pontuação, e quão confiante é que a melhor resposta de pontuação está correta. Uma terceira questão é a extensibilidade. No momento em que aperfeiçoamos nosso genefinder ad hoc, desejamos que também tivéssemos modelado consenso de iniciação de tradução, splicing alternativo e um sinal de poliadenilação. Muitas vezes, empilhar mais realidade em um programa ad hoc frágil faz com que ele colapse sob seu próprio peso. Os modelos de Markov ocultos (HMMs) são uma base formal para a criação de modelos probabilísticos de problemas de rotulagem de seqüência linear 1, 2. Eles fornecem um conjunto de ferramentas conceitual para a construção de modelos complexos apenas desenhando uma imagem intuitiva. Eles estão no centro de uma gama diversificada de programas, incluindo genefinding, pesquisas de perfil, alinhamento de sequências múltiplas e identificação do site regulatório. HMMs são os Legos de análise de seqüência computacional. Um brinquedo HMM: reconhecimento de 5 sites de união Como um exemplo simples, imagine a seguinte caricatura de um problema de reconhecimento de 5 pontos de união. Suponha que recebemos uma sequência de DNA que começa em um exão, contém um site de 5 uniões e termina em um intrão. O problema é identificar onde a mudança do exão para o intrão ocorreu, onde o site de 5 emendas (5SS) é. Para que possamos adivinhar de forma inteligente, as sequências de exões, sites de junção e intrões devem ter propriedades estatísticas diferentes. Imagine algumas diferenças simples: digamos que os exões têm uma composição de base uniforme em média (25 cada base), os intrões são ricos em AT (por exemplo, 40 cada para AT, 10 para CG) e o nucleótido de consenso 5SS é quase sempre um G (Digamos, 95 G e 5 A). A partir dessa informação, podemos desenhar um HMM (Fig. 1). O HMM invoca três estados. Um para cada um dos três rótulos que podemos atribuir a um nucleótido: E (exão), 5 (5SS) e I (intrão). Cada estado tem suas próprias probabilidades de emissão (mostrado acima dos estados), que modelam a composição básica de exões, intrões e o consenso G no 5SS. Cada estado também possui probabilidades de transição (setas), as probabilidades de se deslocar deste estado para um novo estado. As probabilidades de transição descrevem a ordem linear em que esperamos que os estados ocorram: um ou mais Es, um 5, um ou mais Is. Veja o texto para explicação. Imagem de tamanho completo (51 KB) Então, o que está escondido É útil imaginar um HMM gerando uma seqüência. Quando visitamos um estado, emitimos um resíduo da distribuição de probabilidade de emissão dos estados. Em seguida, escolhemos o estado para visitar em seguida, de acordo com a distribuição de probabilidade de transição dos estados. O modelo, portanto, gera duas cordas de informação. Um é o caminho de estado subjacente (os rótulos), à medida que transição de estado para estado. A outra é a sequência observada (o DNA), sendo cada resíduo emitido de um estado no caminho do estado. O caminho do estado é uma cadeia de Markov, o que significa que o estado em que vamos para o próximo depende apenas do estado em que se encontrava. Uma vez que apenas recebeu a seqüência observada, este caminho do estado subjacente está oculto8212. São os rótulos dos resíduos que se casam como inferir. O caminho do estado é uma cadeia de Markov oculta. A probabilidade P (S, HMM,) de que um HMM com parâmetros gera um caminho de estado e uma seqüência observada S é o produto de todas as probabilidades de emissão e probabilidades de transição que foram utilizadas. Por exemplo, considere a seqüência de 26 nucleótidos e o caminho do estado no meio da Figura 1. onde existem 27 transições e 26 emissões para sacar. Multiplique todos os 53 probabilidades juntos (e pegue o log, uma vez que estes são números pequenos) e você calculará o log P (S, HMM,) -41.22. Um HMM é um modelo probabilístico completo. Os parâmetros do modelo e os escores de seqüência gerais são todas as probabilidades. Portanto, podemos usar a teoria de probabilidade bayesiana para manipular esses números em formas padrão e poderosas, incluindo otimizar parâmetros e interpretar o significado das pontuações. Encontrando o melhor caminho de estado Em um problema de análise, foi dada uma seqüência, e queremos inferir o caminho de estado oculto. Existem potencialmente muitos caminhos de estado que poderiam gerar a mesma seqüência. Queremos encontrar aquele com maior probabilidade. Por exemplo, se nos receberam a HMM e a sequência de 26 nucleótidos na Figura 1. existem 14 caminhos possíveis que têm probabilidade não-zero, uma vez que o 5SS deve cair em um dos 14 internos ou Gs. A Figura 1 enumera os seis caminhos de maior pontuação (aqueles com G no 5SS). O melhor tem uma probabilidade logarítmica de -41.22, o que infere que a posição mais desejável de 5SS está no quinto G. Para a maioria dos problemas, existem muitas sequências de estados possíveis que não podemos dar ao luxo de enumerá-las. O algoritmo Viterbi eficiente é garantido para encontrar o caminho de estado mais provável dada uma seqüência e um HMM. O algoritmo de Viterbi é um algoritmo de programação dinâmico bastante semelhante ao usado para alinhamento de seqüência padrão. Além dos melhores alinhamentos de pontuação, a Figura 1 mostra que um caminho de estado alternativo difere apenas ligeiramente na pontuação de colocar o 5SS no quinto G (probabilidades de log de -41,71 versus -41,22). Quão confiante é que o quinto G é a escolha certa. Este é um exemplo de uma vantagem da modelagem probabilística: podemos calcular nossa confiança diretamente. A probabilidade de que o resíduo i foi emitido pelo estado k é a soma das probabilidades de todos os caminhos de estado que usam o estado k para gerar o resíduo i (isto é, i k no caminho do estado), normalizado pela soma sobre todos os caminhos de estado possíveis. Em nosso modelo de brinquedo, este é apenas um caminho de estado no numerador e uma soma de mais de 14 caminhos de estado no denominador. Temos uma probabilidade de 46 que o quinto G de melhor pontuação é correto e 28 que a sexta posição G está correta (Fig. 1. inferior). Isso é chamado de decodificação posterior. Para problemas maiores, a decodificação posterior usa dois algoritmos de programação dinâmicos chamados Forward e Backward, que são essencialmente como Viterbi, mas somam possíveis caminhos em vez de escolher o melhor. Fazendo modelos mais realistas Fazendo um HMM significa especificar quatro coisas: (i) o alfabeto de símbolos, K símbolos diferentes (por exemplo, ACGT, K 4) (ii) o número de estados no modelo, M (iii) probabilidades de emissão ei (x) Para cada estado i. Essa soma para um sobre K símbolos x. X e i (x) 1 e (iv) probabilidades de transição t i (j) para cada estado i indo para qualquer outro estado j (incluindo-se) que somem para um sobre os estados M j. J t i (j) 1. Qualquer modelo que possui essas propriedades é um HMM. Isso significa que pode-se fazer um novo HMM apenas desenhando uma imagem correspondente ao problema em questão, como a Figura 1. Essa simplicidade gráfica permite um foco claramente na definição biológica de um problema. Por exemplo, no nosso modelo de empilhamento de brinquedos, talvez não estivéssemos felizes com o nosso poder de discriminação, talvez desejemos adicionar um GTRAGT de consenso de seis nucleotídeos mais realista no site de 5 splice. Podemos colocar uma linha de seis estados HMM no lugar do estado 5, para modelar um motivo de consenso de seis bases, sem comprometer, parametrizando as probabilidades de emissão em locais conhecidos de 5 empalmes. E talvez queremos modelar um intrão completo, incluindo um site de 3 uniões, apenas adicionamos uma linha de estados para o consenso 3SS e adicionamos um estado de 3 exões para permitir que a sequência observada termine em um exão em vez de um intrão. Então talvez queremos construir um modelo de gene completo. O que quer que adicione, é apenas uma questão de desenhar o que queremos. HMMs não lidam bem com as correlações entre resíduos, porque eles assumem que cada residuo depende apenas de um estado subjacente. Um exemplo em que os HMMs são geralmente inadequados é a análise de estrutura secundária de RNA. Os pares de bases de RNA conservados induzem correlações em dois pares de longo alcance, uma posição pode ser qualquer resíduo, mas o parceiro de base deve ser complementar. Um caminho de estado HMM não tem como lembrar o que um estado distante gerou. Às vezes, pode-se dobrar as regras dos HMMs sem quebrar os algoritmos. Por exemplo, em genefinding, queremos emitir um codão de triplete correlacionado em vez de três resíduos independentes, os algoritmos de HMM podem ser prontamente estendidos aos estados que emitem triplas. No entanto, o kit básico de ferramentas HMM só pode ser esticado até agora. Além dos HMMs, existem classes mais poderosas (embora menos eficientes) de modelos probabilísticos para análise de seqüência. Referências Rabiner, L. R. Um tutorial sobre modelos de Markov escondidos e aplicativos selecionados no reconhecimento de fala. Proc. IEEE 77. 2578211286 (1989). Artigo ISI Durbin, R. Eddy, S. R. Krogh, A. amp Mitchison, G. J. Análise de Seqüência Biológica: Modelos Probabilísticos de Proteínas e Ácidos Nucleicos (Cambridge University Press, Cambridge UK, 1998). Sean R. Eddy está no Howard Hughes Medical Institute amp Departamento de Genética, Washington University School of Medicine, 4444 Forest Park Blvd. Box 8510, Saint Louis, Missouri 63108, EUA. E-mail: eddygenetics. wustl. edu MAIS ARTIGOS COMO ESTE Estes links para conteúdo publicado pela NPG são gerados automaticamente. Navegação principal Navegação extra

No comments:

Post a Comment