Jump to content

como usar as duplas trinca e quadraduplas da dia de sorte


sorel

Recommended Posts

ola comoo podemos usar as duplas, trincas e quadruplas da dis de sorte?

 pois temos em cada linha de sorteio

 21 duplas

35 trincas e

35 quadruplas, estaca pensando em usar uma cada sorteio diferente

 na planilia tem em cada linha de sorteio todas as duplas e trinca e quadruplas, e tem a quantidade e vezes que saiu

http://www.mediafire.com/file/5apvp4nc44h0cl0/duplas_trinc_e_qua.xlsx/file

Link to comment
Share on other sites

ok a macro faz ou separar em cada linha de sorteio as duplas, trincas e quadruplas e mostra as quantidades que saiu

 do total das dupla trinca e qua, de 01 a 31 na mesma macro

Sub test2()
Dim inp_row, out_row(1 To 35), out_column(1 To 31465, 1 To 1), g&, i&, j&, k&, l&, m&
Application.ScreenUpdating = False
Application.Calculation = xlCalculationManual

Rows(4).ClearContents
Columns("I:DG").ClearContents
i = 5
While Cells(i, "A") <> ""
  inp_row = Cells(i, "A").Resize(1, 7).Value
  g = 1
  For j = 1 To 6
    For k = j + 1 To 7
      out_row(g) = Format(inp_row(1, j), "00") & Format(inp_row(1, k), " 00 ")
      g = g + 1
  Next k, j
  Cells(i, "I").Resize(1, 21) = out_row
  
  g = 1
  For j = 1 To 5
    For k = j + 1 To 6
      For l = k + 1 To 7
        out_row(g) = Format(inp_row(1, j), "00") & Format(inp_row(1, k), " 00") & Format(inp_row(1, l), " 00 ")
        g = g + 1
  Next l, k, j
  Cells(i, "AE").Resize(1, 35) = out_row
  
  g = 1
  For j = 1 To 4
    For k = j + 1 To 5
      For l = k + 1 To 6
        For m = l + 1 To 7
          out_row(g) = Format(inp_row(1, j), "00") & Format(inp_row(1, k), " 00") & Format(inp_row(1, l), " 00") & Format(inp_row(1, m), " 00 ")
          g = g + 1
  Next m, l, k, j
  Cells(i, "BO").Resize(1, 35) = out_row
  
  i = i + 1
Wend
i = i - 1
g = 1
For j = 1 To 30
  For k = j + 1 To 31
    out_column(g, 1) = Format(j, "00") & Format(k, " 00 ")
    g = g + 1
Next k, j
Cells(5, "CY").Resize(465, 1) = out_column
  
g = 1
For j = 1 To 29
  For k = j + 1 To 30
    For l = k + 1 To 31
      out_column(g, 1) = Format(j, "00") & Format(k, " 00") & Format(l, " 00 ")
      g = g + 1
Next l, k, j
Cells(5, "DB").Resize(4495, 1) = out_column
  
g = 1
For j = 1 To 28
  For k = j + 1 To 29
    For l = k + 1 To 30
      For m = l + 1 To 31
        out_column(g, 1) = Format(j, "00") & Format(k, " 00") & Format(l, " 00") & Format(m, " 00 ")
        g = g + 1
Next m, l, k, j
Cells(5, "DE").Resize(31465, 1) = out_column


Cells(5, "CZ").Resize(465, 1).Formula = "=COUNTIF(I$5:AC$" & i & ",CY5)"
Cells(5, "DC").Resize(4495, 1).Formula = "=COUNTIF(AE$5:BM$" & i & ",DB5)"
Cells(5, "DF").Resize(31465, 1).Formula = "=COUNTIF(BO$5:CW$" & i & ",DE5)"
Application.Calculate
Application.Calculation = xlCalculationAutomatic

Columns("I:DF").AutoFit
Application.ScreenUpdating = True
End Sub
Link to comment
Share on other sites

  • 2 weeks later...

one data point k, the categorical cross-entropy is:
Hk(pk, qk) = −
XN
n=1
pk(n)log (qk(n)) (1)
With N being the number of categories (number of possible numbers, 75), pk, the target distribution
and qk the prediction from the neural network. To obtain the overall categorical cross-entropy, we
average over all data points. The optimizer used was Adam. We split the set of observations into a
training set of 892 draws and a validation set of 315 draws.
Input Cross-presence Matrix
3 ⇥ 3 conv, 16
x
F(x)
F(x) + x
3 ⇥ 3 conv, 16
Other Input 3 ⇥ 3 conv, 16
dense, 600
dense, 75
y
1 2 3 46 74 75
G(F(x) + x, y)
Figure 1: Neural Network
1
Figure 1: Deep Neural Network model
3 Results
The results are plotted figure 2. The graph on the left is the error on the training set. To check
for overfitting, we also calculated the error on the validation set. On both sets, the error goes down
substantially, dividing the initial error by 5. This is the proof that it is a capturing an unidentified
structure underlying the data. We would like to emphasize this point: even though the neural
network in my brain can not identify the underlying structure of the data, the liberties given to the
deep neural network give the possibility to learn a larger class of functions which explains how this
model could capture an understanding of loto when the human brain can only interpret it, at best,
as randomness. Moreover, the algorithm converges quickly after only a few iterations showing the
efficiency of the neural network.
4 Discussion
Following the logic of the results, this leads to a new understanding of the concept of randomness.
Where the human brain essentially understands randomness, a powerful model from the neural
3

Link to comment
Share on other sites

hello o bjetivo e criar um algoritmo( ainda estamos num escala de 10 quase zero e evoluçao)

com redes neurais, algoritmo evolutivo de aprendizagem de padroes pasados para prever dezenas

prendizagem Profunda
O aprendizado profundo é um campo particular no Aprendizado de Máquina que é impulsionado por uma representação abstrata
da realidade. A estrutura é próxima das famosas redes neurais: a ideia é imitar o
cérebro humano, que é conhecido por ser muito eficiente na aprendizagem. Um grande número de camadas com
processos lineares entre eles são usados: quanto mais profunda a rede, mais complexas as estruturas
pode capturar. Os primeiros algoritmos de aprendizado de máquina surgiram na década de 1950 e seu desenvolvimento
claramente relacionado a melhorias de poder computacional.
A previsão dos números do Loto é uma tarefa supervisionada: os dados coletados, no caso
nos sorteios anteriores, são usados como entradas. O modelo é uma rede neural cujos parâmetros são ajustados
de acordo com os dados durante a fase de treinamento. O treinamento é muitas vezes difícil em redes neurais, devido
para desaparecer ou explodir gradientes. Esse é o principal problema nesses algoritmos. A cada passagem
sobre os dados, os parâmetros são otimizados e, após a convergência, o conjunto de validação é usado para
calcular o erro de validação.
2 modelo
As características mantidas são, em primeiro lugar, em cada período de sorteio, o PIB trimestral, o desemprego trimestral
taxa, o presidente americano (Obama ou não), o dia, o mês eo ano. Para isso, nós adicionamos
o número de vezes que cada número foi desenhado durante todos os sorteios passados e a matriz de presença cruzada
definido como o número de vezes que cada par de números apareceu juntos. Pelo número de vezes
cada número foi sorteado e a matriz de presença cruzada, eles foram ajustados para zero para o primeiro sorteio e
depois foram incrementados em cada etapa.
A rede neural implementada é representada na figura 1. Distinguimos a presença cruzada
matriz e as outras entradas. Aplicamos camadas convolucionais à matriz de presença cruzada. Então,
usando aprendizagem residual, adicionamos o resultado intermediário à saída das camadas convolucionais.
Isto é concatenado com todas as outras características (PIB trimestral, taxa de desemprego,
ident, dia, mês, sim, e número de vezes que cada número foi visto) e age como uma entrada para um
primeira camada densa. Uma segunda camada densa leva à previsão final. Um sigmoide não linear é usado
para prever a presença ou não do número de loto. Por exemplo, na figura 1 , o 2 e o 46 são dois
números (fora dos seis números) que são previstos de acordo com a entrada.
A perda de saída escolhida foi a entropia cruzada categórica entre previsões e metas. Para
2
um ponto de dados k , a entropia cruzada categórica é:
H k (p k, q k) = -
N
n = 1
pk ( n ) log ( q k ( n ))
(1)
Com N sendo o número de categorias (número de possíveis números, 75), p k, a distribuição alvo
e q k a predição da rede neural. Para obter a entropia cruzada categórica geral,
média em todos os pontos de dados. O otimizador usado foi Adam. Nós dividimos o conjunto de observações em um
conjunto de treinamento de 892 empates e um conjunto de validação de 315 empates.
Matriz de presença cruzada de entrada
3 conv 3 conv, 16
x
F (x)
F (x) + x
3 conv 3 conv, 16
3 conv 3 conv, 16
Outras entradas
densa, 600
denso, 75
y
1
2
3
46
75
74
G (F (x) + x, y)
Figura 1: Modelo da Rede Neural Profunda
3. Resultados
Os resultados são plotados na figura 2 . O gráfico à esquerda é o erro no conjunto de treinamento. Checar
para overfitting, também calculamos o erro no conjunto de validação. Em ambos os conjuntos, o erro diminui
substancialmente, dividindo o erro inicial por 5. Esta é a prova de que é uma captura de um não identificado
estrutura subjacente aos dados. Gostaríamos de enfatizar este ponto: mesmo que o neural
rede em meu cérebro não pode identificar a estrutura subjacente dos dados, as liberdades dadas ao
rede neural profunda dá a possibilidade de aprender uma classe maior de funções que explica como esta
modelo poderia capturar uma compreensão do loto quando o cérebro humano só pode interpretá-lo, na melhor das hipóteses,
como aleatoriedade. Além disso, o algoritmo converge rapidamente após apenas algumas iterações mostrando
eficiência da rede neural.
4. Discussão
Seguindo a lógica dos resultados, isso leva a uma nova compreensão do conceito de aleatoriedade.
Onde o cérebro humano essencialmente entende aleatoriedade, um modelo poderoso do neural
3
Figura 2: Erro de validação e treinamento
estrutura de rede captura uma estrutura não aleatória. O cérebro humano, como sistema físico, tem
limites e o quadro de aprendizagem profunda também. O que mostramos aqui é que o cérebro humano limita
estão contidos estritamente dentro dos limites profundos de aprendizagem, o que leva a novas possibilidades
compreensão do mundo e de todas as questões não respondidas.
O próximo passo é usar esse modelo em um problema mais difícil. Em muitos, gostaríamos de aplicar isso
modelo para entender se o gato Schrödinger está realmente vivo ou morto, veja para mais explicações
5. Conclusão
Para uma prova em grande escala de conceito, que previu os números que serão desenhadas no dia 11 de abril,
estes serão 1, 9, 13, 14, 63, e o mega número será 7. E podemos concluir sobre a existência
de Deus.
Agradecimentos
Os autores expressam um agradecimento especial a Vincent R. Cottet e Charles F. Matthew, que nos deram
a primeira ideia deste artigo. Pierre Alquier, Nicolas Chopin e James Ridgway deram muito perspicaz
comentários.
Referências
[Einstein, 1933] Einstein Albert, Carta para Max Born , (1927).
[Claus et al., 2011] Jørgensen Claus B., Suetens Sigrid e Jean-Robert Tyran, prevendo Lotto
Números , (2011).
[ Bíblia Sagrada , 50] Mathew et al., Bíblia Sagrada , Nazareth University Press, (50).
[Kolmogorov, 1933] Kolmogorov A., Grundbegriffe der wahrscheinlichkeitsrechnung , Springer-
Verlag, (1933).
[Schrödinger, 1935] Schrödinger Erwin, Die gegenwärtige Situation in der Quantenmechanik , Natur-
wissenschaften 23 (48): 807-812, (novembro de 1935).
4
iws_n.pngiws_n.pngiws_w.pngiws_e.pngiws_s.pngiws_s.pngiws_c.png
 
 
 
 
 
iw_n.pngiw_n.pngiw_w.pngiw_e.pngiw_s0.pngiw_s0.pngiw_c.png
 
 
 
 
 
 
 
Link to comment
Share on other sites

Página 1
Deep Learning prevê números de loto
Sebastien M. Ronan  , Academia de Paris
1º de abril de 2016
Abstrato
AI do Google bate um jogador de topo em um jogo de Go. Esta notícia chegou no dia 27 de janeiro
simboliza uma revolução na comunidade de aprendizado de máquina. Tem aprendizagem profunda algum limite? Para
Para testar esses limites, aplicamos ao que pensávamos ser um problema impossível: a loteria.
O objetivo é prever o próximo sorteio em relação ao passado. Com relação aos modelos existentes,
o aprendizado profundo deu resultados muito impressionantes. É capaz de capturar uma estrutura subjacente de
o problema e os resultados são muito conclusivos. Deixamos este papel para contemplar o
possibilidades de aprendizagem profunda. O problema do loto foi resolvido? A resposta é sim.
Deep Learning provou sua capacidade de resolver muitos problemas diferentes de caligrafia e
reconhecimento de fala para visão computacional. A estrutura dos algoritmos é baseada em uma reprodução
do cérebro humano, que é conhecido por ser o motor mais potente. É capaz de capturar o latente
estrutura em qualquer conjunto de dados como um ser humano poderia e os resultados parecem de alguma forma mágicos para alguém
quem não está familiarizado com essa classe de algoritmos. O principal objetivo deste artigo é testar seus limites.
Depois de um grande sucesso no Go, o próximo passo é simplesmente testar se a aprendizagem profunda é capaz de lidar
com aleatoriedade. Parece viável porque Deus não joga dados , veja [Einstein, 1933 ]. Go é de fato
um problema puramente combinatório e pode ser reduzido a um cálculo e otimização
tarefa. A aleatoriedade é conceitualmente mais interessante e não pode ser reduzida a poucas dimensões:
modelo dimensional superior é necessário.
Propomos neste artigo um novo modelo para prever números de loteria usando o passado como treinamento
conjunto. O artigo está organizado da seguinte forma: Na seção 1, apresentamos o problema e considerações gerais
sobre aprendizagem profunda. O modelo é apresentado na seção 2 e os resultados estão na seção 3. O
performances notáveis exigem uma discussão que está na seção 4. Concluímos descrevendo nossa
trabalhos futuros.
1. Fundo
1.1 Loteria
Loto é um jogo famoso e generalizado envolvendo aleatoriedade. As primeiras loterias não são claramente
estabelecido, mas é mencionado em [ Bíblia Sagrada , 50 ] e da dinastia Han usou para financiar o
construção da Grande Muralha da China. O princípio da loteria é muito fácil: as pessoas compram um bilhete
que corresponde a uma aposta combinada sobre um conjunto geral de números. Um empate é feito eventualmente
em uma data e hora fixas. Os ganhos estão relacionados a como a combinação corresponde ao empate e ao
O jackpot é ganho se a combinação estiver correta.
 contato: sebastien.m.ronan@gmail.com
1
Neste estudo, nos concentramos na Mega Millions Lottery, que é o maior loto do mundo. isto
começou como o Big Game e foi renomeado em 2003. Em nosso estudo, usamos os dados após a
mudança. 5 bolas são sorteadas entre 1 a 75 sem substituição e uma última bola (a Mega Ball ) é
desenhado entre 1 a 15.
O estudo matemático da loteria é tão antigo quanto a matemática. As primeiras tentativas em causa
os cálculos das probabilidades. É crucial para projetar a loteria. Até mesmo Leonard Euler
trabalhou sobre esse assunto e esses estudos levaram à Teoria da Probabilidade feita por Kolmogorov
[Kolmogorov, 1933]. Poucos trabalhos tentam resolver o problema muito mais difícil de prever o
desenha. Um artigo recente [ Claus et al., 2011 ] investiga o comportamento dos jogadores por um
perspectiva e dá insights interessantes para um jogo melhor. No entanto, seria mais útil
obtenha os números verdadeiros. Alguns autores esotéricos tentaram vários métodos, como alquimia ou hipnose
mas os resultados são, por definição, erráticos porque não são baseados em métodos científicos. Essa
métodos controversos são freqüentemente usados pelos previsores econômicos para prever o PIB.
1.2 Aprendizagem Profunda
O aprendizado profundo é um campo particular no Aprendizado de Máquina que é impulsionado por uma representação abstrata
da realidade. A estrutura é próxima das famosas redes neurais: a ideia é imitar o
cérebro humano, que é conhecido por ser muito eficiente na aprendizagem. Um grande número de camadas com
processos lineares entre eles são usados: quanto mais profunda a rede, mais complexas as estruturas
pode capturar. Os primeiros algoritmos de aprendizado de máquina surgiram na década de 1950 e seu desenvolvimento
claramente relacionado a melhorias de poder computacional.
A previsão dos números do Loto é uma tarefa supervisionada: os dados coletados, no caso
nos sorteios anteriores, são usados como entradas. O modelo é uma rede neural cujos parâmetros são ajustados
de acordo com os dados durante a fase de treinamento. O treinamento é muitas vezes difícil em redes neurais, devido
para desaparecer ou explodir gradientes. Esse é o principal problema nesses algoritmos. A cada passagem
sobre os dados, os parâmetros são otimizados e, após a convergência, o conjunto de validação é usado para
calcular o erro de validação.
2 modelo
As características mantidas são, em primeiro lugar, em cada período de sorteio, o PIB trimestral, o desemprego trimestral
taxa, o presidente americano (Obama ou não), o dia, o mês eo ano. Para isso, nós adicionamos
o número de vezes que cada número foi desenhado durante todos os sorteios passados e a matriz de presença cruzada
definido como o número de vezes que cada par de números apareceu juntos. Pelo número de vezes
cada número foi sorteado e a matriz de presença cruzada, eles foram ajustados para zero para o primeiro sorteio e
depois foram incrementados em cada etapa.
A rede neural implementada é representada na figura 1. Distinguimos a presença cruzada
matriz e as outras entradas. Aplicamos camadas convolucionais à matriz de presença cruzada. Então,
usando aprendizagem residual, adicionamos o resultado intermediário à saída das camadas convolucionais.
Isto é concatenado com todas as outras características (PIB trimestral, taxa de desemprego,
ident, dia, mês, sim, e número de vezes que cada número foi visto) e age como uma entrada para um
primeira camada densa. Uma segunda camada densa leva à previsão final. Um sigmoide não linear é usado
para prever a presença ou não do número de loto. Por exemplo, na figura 1 , o 2 e o 46 são dois
números (fora dos seis números) que são previstos de acordo com a entrada.
A perda de saída escolhida foi a entropia cruzada categórica entre previsões e metas. Para
2
um ponto de dados k , a entropia cruzada categórica é:
H k (p k, q k) = -
N
n = 1
pk ( n ) log ( q k ( n ))
(1)
Com N sendo o número de categorias (número de possíveis números, 75), p k, a distribuição alvo
e q k a predição da rede neural. Para obter a entropia cruzada categórica geral,
média em todos os pontos de dados. O otimizador usado foi Adam. Nós dividimos o conjunto de observações em um
conjunto de treinamento de 892 empates e um conjunto de validação de 315 empates.
Matriz de presença cruzada de entrada
3 conv 3 conv, 16
x
F (x)
F (x) + x
3 conv 3 conv, 16
3 conv 3 conv, 16
Outras entradas
densa, 600
denso, 75
y
1
2
3
46
75
74
G (F (x) + x, y)
Figura 1: Modelo da Rede Neural Profunda
3. Resultados
Os resultados são plotados na figura 2 . O gráfico à esquerda é o erro no conjunto de treinamento. Checar
para overfitting, também calculamos o erro no conjunto de validação. Em ambos os conjuntos, o erro diminui
substancialmente, dividindo o erro inicial por 5. Esta é a prova de que é uma captura de um não identificado
estrutura subjacente aos dados. Gostaríamos de enfatizar este ponto: mesmo que o neural
rede em meu cérebro não pode identificar a estrutura subjacente dos dados, as liberdades dadas ao
rede neural profunda dá a possibilidade de aprender uma classe maior de funções que explica como esta
modelo poderia capturar uma compreensão do loto quando o cérebro humano só pode interpretá-lo, na melhor das hipóteses,
como aleatoriedade. Além disso, o algoritmo converge rapidamente após apenas algumas iterações mostrando
eficiência da rede neural.
4. Discussão
Seguindo a lógica dos resultados, isso leva a uma nova compreensão do conceito de aleatoriedade.
Onde o cérebro humano essencialmente entende aleatoriedade, um modelo poderoso do neura
Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...