sorel Posted August 30, 2018 Share Posted August 30, 2018 ola comoo podemos usar as duplas, trincas e quadruplas da dis de sorte? pois temos em cada linha de sorteio 21 duplas 35 trincas e 35 quadruplas, estaca pensando em usar uma cada sorteio diferente na planilia tem em cada linha de sorteio todas as duplas e trinca e quadruplas, e tem a quantidade e vezes que saiu http://www.mediafire.com/file/5apvp4nc44h0cl0/duplas_trinc_e_qua.xlsx/file Quote Link to comment Share on other sites More sharing options...
sorel Posted August 30, 2018 Author Share Posted August 30, 2018 ok a macro faz ou separar em cada linha de sorteio as duplas, trincas e quadruplas e mostra as quantidades que saiu do total das dupla trinca e qua, de 01 a 31 na mesma macro Sub test2() Dim inp_row, out_row(1 To 35), out_column(1 To 31465, 1 To 1), g&, i&, j&, k&, l&, m& Application.ScreenUpdating = False Application.Calculation = xlCalculationManual Rows(4).ClearContents Columns("I:DG").ClearContents i = 5 While Cells(i, "A") <> "" inp_row = Cells(i, "A").Resize(1, 7).Value g = 1 For j = 1 To 6 For k = j + 1 To 7 out_row(g) = Format(inp_row(1, j), "00") & Format(inp_row(1, k), " 00 ") g = g + 1 Next k, j Cells(i, "I").Resize(1, 21) = out_row g = 1 For j = 1 To 5 For k = j + 1 To 6 For l = k + 1 To 7 out_row(g) = Format(inp_row(1, j), "00") & Format(inp_row(1, k), " 00") & Format(inp_row(1, l), " 00 ") g = g + 1 Next l, k, j Cells(i, "AE").Resize(1, 35) = out_row g = 1 For j = 1 To 4 For k = j + 1 To 5 For l = k + 1 To 6 For m = l + 1 To 7 out_row(g) = Format(inp_row(1, j), "00") & Format(inp_row(1, k), " 00") & Format(inp_row(1, l), " 00") & Format(inp_row(1, m), " 00 ") g = g + 1 Next m, l, k, j Cells(i, "BO").Resize(1, 35) = out_row i = i + 1 Wend i = i - 1 g = 1 For j = 1 To 30 For k = j + 1 To 31 out_column(g, 1) = Format(j, "00") & Format(k, " 00 ") g = g + 1 Next k, j Cells(5, "CY").Resize(465, 1) = out_column g = 1 For j = 1 To 29 For k = j + 1 To 30 For l = k + 1 To 31 out_column(g, 1) = Format(j, "00") & Format(k, " 00") & Format(l, " 00 ") g = g + 1 Next l, k, j Cells(5, "DB").Resize(4495, 1) = out_column g = 1 For j = 1 To 28 For k = j + 1 To 29 For l = k + 1 To 30 For m = l + 1 To 31 out_column(g, 1) = Format(j, "00") & Format(k, " 00") & Format(l, " 00") & Format(m, " 00 ") g = g + 1 Next m, l, k, j Cells(5, "DE").Resize(31465, 1) = out_column Cells(5, "CZ").Resize(465, 1).Formula = "=COUNTIF(I$5:AC$" & i & ",CY5)" Cells(5, "DC").Resize(4495, 1).Formula = "=COUNTIF(AE$5:BM$" & i & ",DB5)" Cells(5, "DF").Resize(31465, 1).Formula = "=COUNTIF(BO$5:CW$" & i & ",DE5)" Application.Calculate Application.Calculation = xlCalculationAutomatic Columns("I:DF").AutoFit Application.ScreenUpdating = True End Sub Quote Link to comment Share on other sites More sharing options...
sorel Posted September 13, 2018 Author Share Posted September 13, 2018 one data point k, the categorical cross-entropy is: Hk(pk, qk) = − XN n=1 pk(n)log (qk(n)) (1) With N being the number of categories (number of possible numbers, 75), pk, the target distribution and qk the prediction from the neural network. To obtain the overall categorical cross-entropy, we average over all data points. The optimizer used was Adam. We split the set of observations into a training set of 892 draws and a validation set of 315 draws. Input Cross-presence Matrix 3 ⇥ 3 conv, 16 x F(x) F(x) + x 3 ⇥ 3 conv, 16 Other Input 3 ⇥ 3 conv, 16 dense, 600 dense, 75 y 1 2 3 46 74 75 G(F(x) + x, y) Figure 1: Neural Network 1 Figure 1: Deep Neural Network model 3 Results The results are plotted figure 2. The graph on the left is the error on the training set. To check for overfitting, we also calculated the error on the validation set. On both sets, the error goes down substantially, dividing the initial error by 5. This is the proof that it is a capturing an unidentified structure underlying the data. We would like to emphasize this point: even though the neural network in my brain can not identify the underlying structure of the data, the liberties given to the deep neural network give the possibility to learn a larger class of functions which explains how this model could capture an understanding of loto when the human brain can only interpret it, at best, as randomness. Moreover, the algorithm converges quickly after only a few iterations showing the efficiency of the neural network. 4 Discussion Following the logic of the results, this leads to a new understanding of the concept of randomness. Where the human brain essentially understands randomness, a powerful model from the neural 3 Quote Link to comment Share on other sites More sharing options...
sorel Posted September 13, 2018 Author Share Posted September 13, 2018 hello o bjetivo e criar um algoritmo( ainda estamos num escala de 10 quase zero e evoluçao) com redes neurais, algoritmo evolutivo de aprendizagem de padroes pasados para prever dezenas prendizagem Profunda O aprendizado profundo é um campo particular no Aprendizado de Máquina que é impulsionado por uma representação abstrata da realidade. A estrutura é próxima das famosas redes neurais: a ideia é imitar o cérebro humano, que é conhecido por ser muito eficiente na aprendizagem. Um grande número de camadas com processos lineares entre eles são usados: quanto mais profunda a rede, mais complexas as estruturas pode capturar. Os primeiros algoritmos de aprendizado de máquina surgiram na década de 1950 e seu desenvolvimento claramente relacionado a melhorias de poder computacional. A previsão dos números do Loto é uma tarefa supervisionada: os dados coletados, no caso nos sorteios anteriores, são usados como entradas. O modelo é uma rede neural cujos parâmetros são ajustados de acordo com os dados durante a fase de treinamento. O treinamento é muitas vezes difícil em redes neurais, devido para desaparecer ou explodir gradientes. Esse é o principal problema nesses algoritmos. A cada passagem sobre os dados, os parâmetros são otimizados e, após a convergência, o conjunto de validação é usado para calcular o erro de validação. 2 modelo As características mantidas são, em primeiro lugar, em cada período de sorteio, o PIB trimestral, o desemprego trimestral taxa, o presidente americano (Obama ou não), o dia, o mês eo ano. Para isso, nós adicionamos o número de vezes que cada número foi desenhado durante todos os sorteios passados e a matriz de presença cruzada definido como o número de vezes que cada par de números apareceu juntos. Pelo número de vezes cada número foi sorteado e a matriz de presença cruzada, eles foram ajustados para zero para o primeiro sorteio e depois foram incrementados em cada etapa. A rede neural implementada é representada na figura 1. Distinguimos a presença cruzada matriz e as outras entradas. Aplicamos camadas convolucionais à matriz de presença cruzada. Então, usando aprendizagem residual, adicionamos o resultado intermediário à saída das camadas convolucionais. Isto é concatenado com todas as outras características (PIB trimestral, taxa de desemprego, ident, dia, mês, sim, e número de vezes que cada número foi visto) e age como uma entrada para um primeira camada densa. Uma segunda camada densa leva à previsão final. Um sigmoide não linear é usado para prever a presença ou não do número de loto. Por exemplo, na figura 1 , o 2 e o 46 são dois números (fora dos seis números) que são previstos de acordo com a entrada. A perda de saída escolhida foi a entropia cruzada categórica entre previsões e metas. Para 2 Página 3 um ponto de dados k , a entropia cruzada categórica é: H k (p k, q k) = - N ∑ n = 1 pk ( n ) log ( q k ( n )) (1) Com N sendo o número de categorias (número de possíveis números, 75), p k, a distribuição alvo e q k a predição da rede neural. Para obter a entropia cruzada categórica geral, média em todos os pontos de dados. O otimizador usado foi Adam. Nós dividimos o conjunto de observações em um conjunto de treinamento de 892 empates e um conjunto de validação de 315 empates. Matriz de presença cruzada de entrada 3 conv 3 conv, 16 x F (x) F (x) + x 3 conv 3 conv, 16 3 conv 3 conv, 16 Outras entradas densa, 600 denso, 75 y 1 2 3 46 75 74 G (F (x) + x, y) Figura 1: Modelo da Rede Neural Profunda 3. Resultados Os resultados são plotados na figura 2 . O gráfico à esquerda é o erro no conjunto de treinamento. Checar para overfitting, também calculamos o erro no conjunto de validação. Em ambos os conjuntos, o erro diminui substancialmente, dividindo o erro inicial por 5. Esta é a prova de que é uma captura de um não identificado estrutura subjacente aos dados. Gostaríamos de enfatizar este ponto: mesmo que o neural rede em meu cérebro não pode identificar a estrutura subjacente dos dados, as liberdades dadas ao rede neural profunda dá a possibilidade de aprender uma classe maior de funções que explica como esta modelo poderia capturar uma compreensão do loto quando o cérebro humano só pode interpretá-lo, na melhor das hipóteses, como aleatoriedade. Além disso, o algoritmo converge rapidamente após apenas algumas iterações mostrando eficiência da rede neural. 4. Discussão Seguindo a lógica dos resultados, isso leva a uma nova compreensão do conceito de aleatoriedade. Onde o cérebro humano essencialmente entende aleatoriedade, um modelo poderoso do neural 3 Página 4 Figura 2: Erro de validação e treinamento estrutura de rede captura uma estrutura não aleatória. O cérebro humano, como sistema físico, tem limites e o quadro de aprendizagem profunda também. O que mostramos aqui é que o cérebro humano limita estão contidos estritamente dentro dos limites profundos de aprendizagem, o que leva a novas possibilidades compreensão do mundo e de todas as questões não respondidas. O próximo passo é usar esse modelo em um problema mais difícil. Em muitos, gostaríamos de aplicar isso modelo para entender se o gato Schrödinger está realmente vivo ou morto, veja para mais explicações [Schrödinger, 1935] . 5. Conclusão Para uma prova em grande escala de conceito, que previu os números que serão desenhadas no dia 11 de abril, estes serão 1, 9, 13, 14, 63, e o mega número será 7. E podemos concluir sobre a existência de Deus. Agradecimentos Os autores expressam um agradecimento especial a Vincent R. Cottet e Charles F. Matthew, que nos deram a primeira ideia deste artigo. Pierre Alquier, Nicolas Chopin e James Ridgway deram muito perspicaz comentários. Referências [Einstein, 1933] Einstein Albert, Carta para Max Born , (1927). [Claus et al., 2011] Jørgensen Claus B., Suetens Sigrid e Jean-Robert Tyran, prevendo Lotto Números , (2011). [ Bíblia Sagrada , 50] Mathew et al., Bíblia Sagrada , Nazareth University Press, (50). [Kolmogorov, 1933] Kolmogorov A., Grundbegriffe der wahrscheinlichkeitsrechnung , Springer- Verlag, (1933). [Schrödinger, 1935] Schrödinger Erwin, Die gegenwärtige Situation in der Quantenmechanik , Natur- wissenschaften 23 (48): 807-812, (novembro de 1935). 4 Quote Link to comment Share on other sites More sharing options...
sorel Posted September 13, 2018 Author Share Posted September 13, 2018 Página 1 Deep Learning prevê números de loto Sebastien M. Ronan ∗ , Academia de Paris 1º de abril de 2016 Abstrato AI do Google bate um jogador de topo em um jogo de Go. Esta notícia chegou no dia 27 de janeiro simboliza uma revolução na comunidade de aprendizado de máquina. Tem aprendizagem profunda algum limite? Para Para testar esses limites, aplicamos ao que pensávamos ser um problema impossível: a loteria. O objetivo é prever o próximo sorteio em relação ao passado. Com relação aos modelos existentes, o aprendizado profundo deu resultados muito impressionantes. É capaz de capturar uma estrutura subjacente de o problema e os resultados são muito conclusivos. Deixamos este papel para contemplar o possibilidades de aprendizagem profunda. O problema do loto foi resolvido? A resposta é sim. Deep Learning provou sua capacidade de resolver muitos problemas diferentes de caligrafia e reconhecimento de fala para visão computacional. A estrutura dos algoritmos é baseada em uma reprodução do cérebro humano, que é conhecido por ser o motor mais potente. É capaz de capturar o latente estrutura em qualquer conjunto de dados como um ser humano poderia e os resultados parecem de alguma forma mágicos para alguém quem não está familiarizado com essa classe de algoritmos. O principal objetivo deste artigo é testar seus limites. Depois de um grande sucesso no Go, o próximo passo é simplesmente testar se a aprendizagem profunda é capaz de lidar com aleatoriedade. Parece viável porque Deus não joga dados , veja [Einstein, 1933 ]. Go é de fato um problema puramente combinatório e pode ser reduzido a um cálculo e otimização tarefa. A aleatoriedade é conceitualmente mais interessante e não pode ser reduzida a poucas dimensões: modelo dimensional superior é necessário. Propomos neste artigo um novo modelo para prever números de loteria usando o passado como treinamento conjunto. O artigo está organizado da seguinte forma: Na seção 1, apresentamos o problema e considerações gerais sobre aprendizagem profunda. O modelo é apresentado na seção 2 e os resultados estão na seção 3. O performances notáveis exigem uma discussão que está na seção 4. Concluímos descrevendo nossa trabalhos futuros. 1. Fundo 1.1 Loteria Loto é um jogo famoso e generalizado envolvendo aleatoriedade. As primeiras loterias não são claramente estabelecido, mas é mencionado em [ Bíblia Sagrada , 50 ] e da dinastia Han usou para financiar o construção da Grande Muralha da China. O princípio da loteria é muito fácil: as pessoas compram um bilhete que corresponde a uma aposta combinada sobre um conjunto geral de números. Um empate é feito eventualmente em uma data e hora fixas. Os ganhos estão relacionados a como a combinação corresponde ao empate e ao O jackpot é ganho se a combinação estiver correta. ∗ contato: sebastien.m.ronan@gmail.com 1 Página 2 Neste estudo, nos concentramos na Mega Millions Lottery, que é o maior loto do mundo. isto começou como o Big Game e foi renomeado em 2003. Em nosso estudo, usamos os dados após a mudança. 5 bolas são sorteadas entre 1 a 75 sem substituição e uma última bola (a Mega Ball ) é desenhado entre 1 a 15. O estudo matemático da loteria é tão antigo quanto a matemática. As primeiras tentativas em causa os cálculos das probabilidades. É crucial para projetar a loteria. Até mesmo Leonard Euler trabalhou sobre esse assunto e esses estudos levaram à Teoria da Probabilidade feita por Kolmogorov [Kolmogorov, 1933]. Poucos trabalhos tentam resolver o problema muito mais difícil de prever o desenha. Um artigo recente [ Claus et al., 2011 ] investiga o comportamento dos jogadores por um perspectiva e dá insights interessantes para um jogo melhor. No entanto, seria mais útil obtenha os números verdadeiros. Alguns autores esotéricos tentaram vários métodos, como alquimia ou hipnose mas os resultados são, por definição, erráticos porque não são baseados em métodos científicos. Essa métodos controversos são freqüentemente usados pelos previsores econômicos para prever o PIB. 1.2 Aprendizagem Profunda O aprendizado profundo é um campo particular no Aprendizado de Máquina que é impulsionado por uma representação abstrata da realidade. A estrutura é próxima das famosas redes neurais: a ideia é imitar o cérebro humano, que é conhecido por ser muito eficiente na aprendizagem. Um grande número de camadas com processos lineares entre eles são usados: quanto mais profunda a rede, mais complexas as estruturas pode capturar. Os primeiros algoritmos de aprendizado de máquina surgiram na década de 1950 e seu desenvolvimento claramente relacionado a melhorias de poder computacional. A previsão dos números do Loto é uma tarefa supervisionada: os dados coletados, no caso nos sorteios anteriores, são usados como entradas. O modelo é uma rede neural cujos parâmetros são ajustados de acordo com os dados durante a fase de treinamento. O treinamento é muitas vezes difícil em redes neurais, devido para desaparecer ou explodir gradientes. Esse é o principal problema nesses algoritmos. A cada passagem sobre os dados, os parâmetros são otimizados e, após a convergência, o conjunto de validação é usado para calcular o erro de validação. 2 modelo As características mantidas são, em primeiro lugar, em cada período de sorteio, o PIB trimestral, o desemprego trimestral taxa, o presidente americano (Obama ou não), o dia, o mês eo ano. Para isso, nós adicionamos o número de vezes que cada número foi desenhado durante todos os sorteios passados e a matriz de presença cruzada definido como o número de vezes que cada par de números apareceu juntos. Pelo número de vezes cada número foi sorteado e a matriz de presença cruzada, eles foram ajustados para zero para o primeiro sorteio e depois foram incrementados em cada etapa. A rede neural implementada é representada na figura 1. Distinguimos a presença cruzada matriz e as outras entradas. Aplicamos camadas convolucionais à matriz de presença cruzada. Então, usando aprendizagem residual, adicionamos o resultado intermediário à saída das camadas convolucionais. Isto é concatenado com todas as outras características (PIB trimestral, taxa de desemprego, ident, dia, mês, sim, e número de vezes que cada número foi visto) e age como uma entrada para um primeira camada densa. Uma segunda camada densa leva à previsão final. Um sigmoide não linear é usado para prever a presença ou não do número de loto. Por exemplo, na figura 1 , o 2 e o 46 são dois números (fora dos seis números) que são previstos de acordo com a entrada. A perda de saída escolhida foi a entropia cruzada categórica entre previsões e metas. Para 2 Página 3 um ponto de dados k , a entropia cruzada categórica é: H k (p k, q k) = - N ∑ n = 1 pk ( n ) log ( q k ( n )) (1) Com N sendo o número de categorias (número de possíveis números, 75), p k, a distribuição alvo e q k a predição da rede neural. Para obter a entropia cruzada categórica geral, média em todos os pontos de dados. O otimizador usado foi Adam. Nós dividimos o conjunto de observações em um conjunto de treinamento de 892 empates e um conjunto de validação de 315 empates. Matriz de presença cruzada de entrada 3 conv 3 conv, 16 x F (x) F (x) + x 3 conv 3 conv, 16 3 conv 3 conv, 16 Outras entradas densa, 600 denso, 75 y 1 2 3 46 75 74 G (F (x) + x, y) Figura 1: Modelo da Rede Neural Profunda 3. Resultados Os resultados são plotados na figura 2 . O gráfico à esquerda é o erro no conjunto de treinamento. Checar para overfitting, também calculamos o erro no conjunto de validação. Em ambos os conjuntos, o erro diminui substancialmente, dividindo o erro inicial por 5. Esta é a prova de que é uma captura de um não identificado estrutura subjacente aos dados. Gostaríamos de enfatizar este ponto: mesmo que o neural rede em meu cérebro não pode identificar a estrutura subjacente dos dados, as liberdades dadas ao rede neural profunda dá a possibilidade de aprender uma classe maior de funções que explica como esta modelo poderia capturar uma compreensão do loto quando o cérebro humano só pode interpretá-lo, na melhor das hipóteses, como aleatoriedade. Além disso, o algoritmo converge rapidamente após apenas algumas iterações mostrando eficiência da rede neural. 4. Discussão Seguindo a lógica dos resultados, isso leva a uma nova compreensão do conceito de aleatoriedade. Onde o cérebro humano essencialmente entende aleatoriedade, um modelo poderoso do neura Quote Link to comment Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.