sorel

Super VIP
  • Content Count

    8,281
  • Joined

  • Last visited

  • Days Won

    1

sorel last won the day on March 15

sorel had the most liked content!

Community Reputation

858 Excelente

About sorel

  • Rank
    Membro Duplo Diamante

Recent Profile Visitors

9,664 profile views
  1. sorel

    Projeto grande multiuso  em excel

    ola edcronos 2, mas a planilia esta na area de baixar? abraço
  2. sorel

    Projeto grande multiuso  em excel

    edcronos2, um dia quando minha conta no banco estava na vermelho falei pro regente, que me falou que minha conta esta no vermelho, eu tenho problema de menoria, e o regente falou , fica tranquilo, pois eu nao tenho! ahhh ok mas quando estava no azul voce me avisava?
  3. sorel

    Projeto grande multiuso  em excel

    mas no caso da DIA de sorte temos repetiçoes de duplas trios e quadruplas, de 5,6,7 no repete com frequencias dos anteriores
  4. sorel

    Projeto grande multiuso  em excel

    ala ,edcronos 2. porque a voce e mim mesmo e aoutros porque insistimos e ver nos sorteios anteriores, se na loteria nao tem memoria? ahhh! talvez seja que tenha algum padrao oculto que o subconciente é burro é noa enxerga ou para ver padraoes, cada sorteio é como um impressao digital um diferente da outra mas com algum repetiçoes de padroes, mas no todo( todos os numeros do sorteio em si) seja por posiçao( coluna) ou pelo todo pregunta= porque uma dezena que mais sai ela continua a ser a que mais sai, num determinado numero de sorteios? será porque esta posiciona na matriz a favor da maré das probabilidades? ou nao?
  5. sorel

    Projeto grande multiuso  em excel

    opa sorry, esqueci é sobre a loteria DIA DE SORTE que a caixa nao coloca os sorteios como nas outras loterias nao entende isto?
  6. sorel

    Projeto grande multiuso  em excel

    porque a cixa nao dispoe do arquivo de resultados todos como nas outras loterias?
  7. sorel

    Na pista do próximo sorteio

    ola ROB, o que é intervalo CE E CD por favor? abraço
  8. Eu estou mantendo as estatísticas da loteria milhar( jogo do bicho) e tenho uma longa coluna de números de 4 dígitos variando de 0000-9999. Eu destaquei quais números já jogaram diretamente em amarelo, mas estou tentando descobrir se há uma maneira de destacar números que jogaram box. Por exemplo, se eu tiver "3401", "4301" e "1034" temos 24 condiçoes, destacados em amarelo agora, há uma maneira de obter o Excel para destacar automaticamente esses todos conjuntos de números em uma cor diferente, pois todos contêm os mesmos 4 dígitos ? exe= no sorteio temos =1596 a macro indentica as 24 formsçoes dos mesmos 4 digitos numa lista significa que 4 sorteios= temos 4 x24= entao em cada 4 sorteio temos 96 outros , claro que milhar com repetiçoes de digitos temos menos ex 1159
  9. sorel

    O que o fórum precisa mudar?

    ola no forum, uma forma de busca rapida dos post passados, assim quando alguem por um topico para nao haver repetiçao do tema, ou busca de um topico especifico, topicos= discussao de loterias sistema de loteria matematica mistico resultados de loteria rodas etc
  10. Página 1 Deep Learning prevê números de loto Sebastien M. Ronan ∗ , Academia de Paris 1º de abril de 2016 Abstrato AI do Google bate um jogador de topo em um jogo de Go. Esta notícia chegou no dia 27 de janeiro simboliza uma revolução na comunidade de aprendizado de máquina. Tem aprendizagem profunda algum limite? Para Para testar esses limites, aplicamos ao que pensávamos ser um problema impossível: a loteria. O objetivo é prever o próximo sorteio em relação ao passado. Com relação aos modelos existentes, o aprendizado profundo deu resultados muito impressionantes. É capaz de capturar uma estrutura subjacente de o problema e os resultados são muito conclusivos. Deixamos este papel para contemplar o possibilidades de aprendizagem profunda. O problema do loto foi resolvido? A resposta é sim. Deep Learning provou sua capacidade de resolver muitos problemas diferentes de caligrafia e reconhecimento de fala para visão computacional. A estrutura dos algoritmos é baseada em uma reprodução do cérebro humano, que é conhecido por ser o motor mais potente. É capaz de capturar o latente estrutura em qualquer conjunto de dados como um ser humano poderia e os resultados parecem de alguma forma mágicos para alguém quem não está familiarizado com essa classe de algoritmos. O principal objetivo deste artigo é testar seus limites. Depois de um grande sucesso no Go, o próximo passo é simplesmente testar se a aprendizagem profunda é capaz de lidar com aleatoriedade. Parece viável porque Deus não joga dados , veja [Einstein, 1933 ]. Go é de fato um problema puramente combinatório e pode ser reduzido a um cálculo e otimização tarefa. A aleatoriedade é conceitualmente mais interessante e não pode ser reduzida a poucas dimensões: modelo dimensional superior é necessário. Propomos neste artigo um novo modelo para prever números de loteria usando o passado como treinamento conjunto. O artigo está organizado da seguinte forma: Na seção 1, apresentamos o problema e considerações gerais sobre aprendizagem profunda. O modelo é apresentado na seção 2 e os resultados estão na seção 3. O performances notáveis exigem uma discussão que está na seção 4. Concluímos descrevendo nossa trabalhos futuros. 1. Fundo 1.1 Loteria Loto é um jogo famoso e generalizado envolvendo aleatoriedade. As primeiras loterias não são claramente estabelecido, mas é mencionado em [ Bíblia Sagrada , 50 ] e da dinastia Han usou para financiar o construção da Grande Muralha da China. O princípio da loteria é muito fácil: as pessoas compram um bilhete que corresponde a uma aposta combinada sobre um conjunto geral de números. Um empate é feito eventualmente em uma data e hora fixas. Os ganhos estão relacionados a como a combinação corresponde ao empate e ao O jackpot é ganho se a combinação estiver correta. ∗ contato: [email protected] 1 Página 2 Neste estudo, nos concentramos na Mega Millions Lottery, que é o maior loto do mundo. isto começou como o Big Game e foi renomeado em 2003. Em nosso estudo, usamos os dados após a mudança. 5 bolas são sorteadas entre 1 a 75 sem substituição e uma última bola (a Mega Ball ) é desenhado entre 1 a 15. O estudo matemático da loteria é tão antigo quanto a matemática. As primeiras tentativas em causa os cálculos das probabilidades. É crucial para projetar a loteria. Até mesmo Leonard Euler trabalhou sobre esse assunto e esses estudos levaram à Teoria da Probabilidade feita por Kolmogorov [Kolmogorov, 1933]. Poucos trabalhos tentam resolver o problema muito mais difícil de prever o desenha. Um artigo recente [ Claus et al., 2011 ] investiga o comportamento dos jogadores por um perspectiva e dá insights interessantes para um jogo melhor. No entanto, seria mais útil obtenha os números verdadeiros. Alguns autores esotéricos tentaram vários métodos, como alquimia ou hipnose mas os resultados são, por definição, erráticos porque não são baseados em métodos científicos. Essa métodos controversos são freqüentemente usados pelos previsores econômicos para prever o PIB. 1.2 Aprendizagem Profunda O aprendizado profundo é um campo particular no Aprendizado de Máquina que é impulsionado por uma representação abstrata da realidade. A estrutura é próxima das famosas redes neurais: a ideia é imitar o cérebro humano, que é conhecido por ser muito eficiente na aprendizagem. Um grande número de camadas com processos lineares entre eles são usados: quanto mais profunda a rede, mais complexas as estruturas pode capturar. Os primeiros algoritmos de aprendizado de máquina surgiram na década de 1950 e seu desenvolvimento claramente relacionado a melhorias de poder computacional. A previsão dos números do Loto é uma tarefa supervisionada: os dados coletados, no caso nos sorteios anteriores, são usados como entradas. O modelo é uma rede neural cujos parâmetros são ajustados de acordo com os dados durante a fase de treinamento. O treinamento é muitas vezes difícil em redes neurais, devido para desaparecer ou explodir gradientes. Esse é o principal problema nesses algoritmos. A cada passagem sobre os dados, os parâmetros são otimizados e, após a convergência, o conjunto de validação é usado para calcular o erro de validação. 2 modelo As características mantidas são, em primeiro lugar, em cada período de sorteio, o PIB trimestral, o desemprego trimestral taxa, o presidente americano (Obama ou não), o dia, o mês eo ano. Para isso, nós adicionamos o número de vezes que cada número foi desenhado durante todos os sorteios passados e a matriz de presença cruzada definido como o número de vezes que cada par de números apareceu juntos. Pelo número de vezes cada número foi sorteado e a matriz de presença cruzada, eles foram ajustados para zero para o primeiro sorteio e depois foram incrementados em cada etapa. A rede neural implementada é representada na figura 1. Distinguimos a presença cruzada matriz e as outras entradas. Aplicamos camadas convolucionais à matriz de presença cruzada. Então, usando aprendizagem residual, adicionamos o resultado intermediário à saída das camadas convolucionais. Isto é concatenado com todas as outras características (PIB trimestral, taxa de desemprego, ident, dia, mês, sim, e número de vezes que cada número foi visto) e age como uma entrada para um primeira camada densa. Uma segunda camada densa leva à previsão final. Um sigmoide não linear é usado para prever a presença ou não do número de loto. Por exemplo, na figura 1 , o 2 e o 46 são dois números (fora dos seis números) que são previstos de acordo com a entrada. A perda de saída escolhida foi a entropia cruzada categórica entre previsões e metas. Para 2 Página 3 um ponto de dados k , a entropia cruzada categórica é: H k (p k, q k) = - N ∑ n = 1 pk ( n ) log ( q k ( n )) (1) Com N sendo o número de categorias (número de possíveis números, 75), p k, a distribuição alvo e q k a predição da rede neural. Para obter a entropia cruzada categórica geral, média em todos os pontos de dados. O otimizador usado foi Adam. Nós dividimos o conjunto de observações em um conjunto de treinamento de 892 empates e um conjunto de validação de 315 empates. Matriz de presença cruzada de entrada 3 conv 3 conv, 16 x F (x) F (x) + x 3 conv 3 conv, 16 3 conv 3 conv, 16 Outras entradas densa, 600 denso, 75 y 1 2 3 46 75 74 G (F (x) + x, y) Figura 1: Modelo da Rede Neural Profunda 3. Resultados Os resultados são plotados na figura 2 . O gráfico à esquerda é o erro no conjunto de treinamento. Checar para overfitting, também calculamos o erro no conjunto de validação. Em ambos os conjuntos, o erro diminui substancialmente, dividindo o erro inicial por 5. Esta é a prova de que é uma captura de um não identificado estrutura subjacente aos dados. Gostaríamos de enfatizar este ponto: mesmo que o neural rede em meu cérebro não pode identificar a estrutura subjacente dos dados, as liberdades dadas ao rede neural profunda dá a possibilidade de aprender uma classe maior de funções que explica como esta modelo poderia capturar uma compreensão do loto quando o cérebro humano só pode interpretá-lo, na melhor das hipóteses, como aleatoriedade. Além disso, o algoritmo converge rapidamente após apenas algumas iterações mostrando eficiência da rede neural. 4. Discussão Seguindo a lógica dos resultados, isso leva a uma nova compreensão do conceito de aleatoriedade. Onde o cérebro humano essencialmente entende aleatoriedade, um modelo poderoso do neura
  11. hello o bjetivo e criar um algoritmo( ainda estamos num escala de 10 quase zero e evoluçao) com redes neurais, algoritmo evolutivo de aprendizagem de padroes pasados para prever dezenas prendizagem Profunda O aprendizado profundo é um campo particular no Aprendizado de Máquina que é impulsionado por uma representação abstrata da realidade. A estrutura é próxima das famosas redes neurais: a ideia é imitar o cérebro humano, que é conhecido por ser muito eficiente na aprendizagem. Um grande número de camadas com processos lineares entre eles são usados: quanto mais profunda a rede, mais complexas as estruturas pode capturar. Os primeiros algoritmos de aprendizado de máquina surgiram na década de 1950 e seu desenvolvimento claramente relacionado a melhorias de poder computacional. A previsão dos números do Loto é uma tarefa supervisionada: os dados coletados, no caso nos sorteios anteriores, são usados como entradas. O modelo é uma rede neural cujos parâmetros são ajustados de acordo com os dados durante a fase de treinamento. O treinamento é muitas vezes difícil em redes neurais, devido para desaparecer ou explodir gradientes. Esse é o principal problema nesses algoritmos. A cada passagem sobre os dados, os parâmetros são otimizados e, após a convergência, o conjunto de validação é usado para calcular o erro de validação. 2 modelo As características mantidas são, em primeiro lugar, em cada período de sorteio, o PIB trimestral, o desemprego trimestral taxa, o presidente americano (Obama ou não), o dia, o mês eo ano. Para isso, nós adicionamos o número de vezes que cada número foi desenhado durante todos os sorteios passados e a matriz de presença cruzada definido como o número de vezes que cada par de números apareceu juntos. Pelo número de vezes cada número foi sorteado e a matriz de presença cruzada, eles foram ajustados para zero para o primeiro sorteio e depois foram incrementados em cada etapa. A rede neural implementada é representada na figura 1. Distinguimos a presença cruzada matriz e as outras entradas. Aplicamos camadas convolucionais à matriz de presença cruzada. Então, usando aprendizagem residual, adicionamos o resultado intermediário à saída das camadas convolucionais. Isto é concatenado com todas as outras características (PIB trimestral, taxa de desemprego, ident, dia, mês, sim, e número de vezes que cada número foi visto) e age como uma entrada para um primeira camada densa. Uma segunda camada densa leva à previsão final. Um sigmoide não linear é usado para prever a presença ou não do número de loto. Por exemplo, na figura 1 , o 2 e o 46 são dois números (fora dos seis números) que são previstos de acordo com a entrada. A perda de saída escolhida foi a entropia cruzada categórica entre previsões e metas. Para 2 Página 3 um ponto de dados k , a entropia cruzada categórica é: H k (p k, q k) = - N ∑ n = 1 pk ( n ) log ( q k ( n )) (1) Com N sendo o número de categorias (número de possíveis números, 75), p k, a distribuição alvo e q k a predição da rede neural. Para obter a entropia cruzada categórica geral, média em todos os pontos de dados. O otimizador usado foi Adam. Nós dividimos o conjunto de observações em um conjunto de treinamento de 892 empates e um conjunto de validação de 315 empates. Matriz de presença cruzada de entrada 3 conv 3 conv, 16 x F (x) F (x) + x 3 conv 3 conv, 16 3 conv 3 conv, 16 Outras entradas densa, 600 denso, 75 y 1 2 3 46 75 74 G (F (x) + x, y) Figura 1: Modelo da Rede Neural Profunda 3. Resultados Os resultados são plotados na figura 2 . O gráfico à esquerda é o erro no conjunto de treinamento. Checar para overfitting, também calculamos o erro no conjunto de validação. Em ambos os conjuntos, o erro diminui substancialmente, dividindo o erro inicial por 5. Esta é a prova de que é uma captura de um não identificado estrutura subjacente aos dados. Gostaríamos de enfatizar este ponto: mesmo que o neural rede em meu cérebro não pode identificar a estrutura subjacente dos dados, as liberdades dadas ao rede neural profunda dá a possibilidade de aprender uma classe maior de funções que explica como esta modelo poderia capturar uma compreensão do loto quando o cérebro humano só pode interpretá-lo, na melhor das hipóteses, como aleatoriedade. Além disso, o algoritmo converge rapidamente após apenas algumas iterações mostrando eficiência da rede neural. 4. Discussão Seguindo a lógica dos resultados, isso leva a uma nova compreensão do conceito de aleatoriedade. Onde o cérebro humano essencialmente entende aleatoriedade, um modelo poderoso do neural 3 Página 4 Figura 2: Erro de validação e treinamento estrutura de rede captura uma estrutura não aleatória. O cérebro humano, como sistema físico, tem limites e o quadro de aprendizagem profunda também. O que mostramos aqui é que o cérebro humano limita estão contidos estritamente dentro dos limites profundos de aprendizagem, o que leva a novas possibilidades compreensão do mundo e de todas as questões não respondidas. O próximo passo é usar esse modelo em um problema mais difícil. Em muitos, gostaríamos de aplicar isso modelo para entender se o gato Schrödinger está realmente vivo ou morto, veja para mais explicações [Schrödinger, 1935] . 5. Conclusão Para uma prova em grande escala de conceito, que previu os números que serão desenhadas no dia 11 de abril, estes serão 1, 9, 13, 14, 63, e o mega número será 7. E podemos concluir sobre a existência de Deus. Agradecimentos Os autores expressam um agradecimento especial a Vincent R. Cottet e Charles F. Matthew, que nos deram a primeira ideia deste artigo. Pierre Alquier, Nicolas Chopin e James Ridgway deram muito perspicaz comentários. Referências [Einstein, 1933] Einstein Albert, Carta para Max Born , (1927). [Claus et al., 2011] Jørgensen Claus B., Suetens Sigrid e Jean-Robert Tyran, prevendo Lotto Números , (2011). [ Bíblia Sagrada , 50] Mathew et al., Bíblia Sagrada , Nazareth University Press, (50). [Kolmogorov, 1933] Kolmogorov A., Grundbegriffe der wahrscheinlichkeitsrechnung , Springer- Verlag, (1933). [Schrödinger, 1935] Schrödinger Erwin, Die gegenwärtige Situation in der Quantenmechanik , Natur- wissenschaften 23 (48): 807-812, (novembro de 1935). 4
  12. one data point k, the categorical cross-entropy is: Hk(pk, qk) = − XN n=1 pk(n)log (qk(n)) (1) With N being the number of categories (number of possible numbers, 75), pk, the target distribution and qk the prediction from the neural network. To obtain the overall categorical cross-entropy, we average over all data points. The optimizer used was Adam. We split the set of observations into a training set of 892 draws and a validation set of 315 draws. Input Cross-presence Matrix 3 ⇥ 3 conv, 16 x F(x) F(x) + x 3 ⇥ 3 conv, 16 Other Input 3 ⇥ 3 conv, 16 dense, 600 dense, 75 y 1 2 3 46 74 75 G(F(x) + x, y) Figure 1: Neural Network 1 Figure 1: Deep Neural Network model 3 Results The results are plotted figure 2. The graph on the left is the error on the training set. To check for overfitting, we also calculated the error on the validation set. On both sets, the error goes down substantially, dividing the initial error by 5. This is the proof that it is a capturing an unidentified structure underlying the data. We would like to emphasize this point: even though the neural network in my brain can not identify the underlying structure of the data, the liberties given to the deep neural network give the possibility to learn a larger class of functions which explains how this model could capture an understanding of loto when the human brain can only interpret it, at best, as randomness. Moreover, the algorithm converges quickly after only a few iterations showing the efficiency of the neural network. 4 Discussion Following the logic of the results, this leads to a new understanding of the concept of randomness. Where the human brain essentially understands randomness, a powerful model from the neural 3
  13. opa muito bom trabalho e ficou bem bem ccaprichado, quando ganhar terá recompensado isto é sagrado. estava vendo nso sorteios da caixa ( federal ) a incidencia é boa deste padrao, sim bom agora pelo todo ( todas as formaçoes que atendem o padrao agora é ir dentro com filtros tipo repetidos ausentes do ultimo milhar por posiçaoes, estatistica das freqeuncia, emtende, manter em varios sorteios
  14. opa, sim o DOIS , agora vamos separar as verdadeiras, e ver as atrasadas para jogar no 1º premio e no 1/5 do milhar, filtrar pela ultima milhar os digitos repetidos e ausentes, e atrasos, boa DOIS
  15. ok , mas o valor tem ser a soma ex= a+b=c o (c )ter ser a soma exempl para a = 1 para b= 4 ora para c ter ser 5