Jump to content

Alguém conhece algum cálculo para saber se a dezena vem? Ou não vem?


Joh2010

Recommended Posts

Em 07/10/2018 at 10:06, Sphgf disse:

Bom, como o fórum é aberto inclusive internacionalmente...

Creio que não deveria a postar... mas levando-se em consideração que poucos iniciados vão entender, lá vai... rsrsrsrs

 

[]

Pois bem, vamos por partes:

A respeito do paper dos amigos da UFU, não vi novidades. Se não me engano o professor Elarrat escreveu um paper quase idêntico.
O esquema dos gabaritos nada mais é do que um sistema de aglutinação de combinações que permite a visualização de grupos devedores e saturados, e isso nós já sabemos e fazemos há tempos.

Vejam esse gabarito baseado nos CSNs da Lotofácil:

0000001 até 0817190 = 206 concursos
0817191 até 1634380 = 204 concursos
1634381 até 2451570 = 189 concursos
2451571 até 3268760 = 176 concursos

Cada bloco desses deveria ter sorteado 193 concursos. Como a dezena 01 está saturada, os blocos dos CSNs mais baixos foram mais sorteados.

Vejam esse agora, analisem esse grupo de dezenas: 01 02 06 08 10 11 12 13 18 21

Acertos/Combinações/Probabilidade/Estimativa/Ocorrência real

0    1             0,000031%       0,0002       0            
1    150          0,004589%      0,0356       1        
2    4725        0,144550%      1,1203       2        
3    54600      1,670358%     12,9453      14    
4    286650    8,769380%     67,9627      48    
5    756756    23,15116%    179,4215    155    
6    1051050  32,15439%    249,1966    314    
7    772200    23,62363%    183,0832    175    
8    289575    8,858864%     68,6562      60    
9    50050      1,531162%     11,8665       6    
10    3003      0,091870%       0,7120       0

O acerto de 6 dezenas desse grupo está saturado em 64 concursos, todos os outros estão abaixo do esperado.
Mas e se nós tivéssemos percebido esse fenômeno há 300 concursos atrás?

Acertos/Combinações/Probabilidade/Estimativa/Ocorrência real (até o 475)

0    1             0,000031%        0,0001       0            
1    150          0,004589%        0,0218       0            
2    4725        0,144550%        0,6866       2        
3    54600      1,670358%        7,9342       7    
4    286650    8,769380%       41,6546     35    
5    756756    23,151164%    109,9680     86    
6    1051050  32,154395%    152,7334    199    
7    772200    23,623637%    112,2123    106    
8    289575     8,858864%      42,0796      36    
9    50050      1,531162%        7,2730       4    
10    3003      0,091870%        0,4364       0        

Ele já estava saturado e vem se mantendo desde então, mais 115 ocorrências de 6 dezenas em 200 concursos (38,33%). Vejam que elegi esse grupinho como o gabarito de referência, poderia ser qualquer outro. O que percebi é que para qualquer tamanho de grupo, sempre um está bem discrepante em algum índice de acerto e que logo atrás dele há uma fila gigante de outros um pouco menos discrepantes. Analisem esse de 5 dezenas: 09 13 14 19 22, ou esse de 7: 06 08 10 13 17 19 24

Paulo, a respeito da equação, vejo 5 variáveis envolvidas:

- Probabilidade em si
- Ocorrência real
- Ocorrência estimada
- Atraso real
- Atraso estimado

O que tem mais "peso" na sua opinião, um evento com 10% de probabilidade, atrasado há 2 concursos ou um com 7% probabilidade, atrasado há 6? ou um com 3%, atrasado há 45 e devedor em 10 concursos?

É esse tipo de resposta que estou buscando, obviamente embasada na matemática. Essa equaçãozinha também teria outra finalidade, um filtro altamente eficaz e maleável. Quando você determina que teremos de 2 a 4 dezenas de um grupinho de 5, a filtragem irá te remeter a 2.874.700 combinações, muita gordura a ser queimada.

Desmembrando o tal grupo em subsets teremos essa listinha de possibilidades:

de 2
01 02 XX XX XX            
01 XX 03 XX XX                
01 XX XX 04 XX            
01 XX XX XX 05            
XX 02 03 XX XX                
XX 02 XX 04 XX            
XX 02 XX XX 05            
XX XX 03 04 XX            
XX XX 03 XX 05            
XX XX XX 04 05    

de 3        
01 02 03 XX XX            
01 02 XX 04 XX                
01 02 XX XX 05                
01 XX 03 04 XX            
01 XX 03 XX 05                
01 XX XX 04 05                
XX 02 03 04 XX            
XX 02 03 XX 05                
XX 02 XX 04 05                
XX XX 03 04 05    

de 4        
01 02 03 04 XX            
01 02 03 XX 05            
01 02 XX 04 05            
01 XX 03 04 05                
XX 02 03 04 05                

Cada qual possui uma ocorrência e um atraso real distintos, assim como uma probabilidade, uma ocorrência e um atraso estimado idênticos (dependendo do tamanho). A equação avaliaria todos eles e levantaria os melhores 95%, ou 90%, ou 85% para o próximo concurso baseada em uma lógica que ainda não consegui decifrar. O percentual pode ser alterado para qualquer margem. Logo em seguida o algoritmo passaria a régua em todas as combinações rejeitadas e nos informaria a quantidade restante. É aqui que finalmente aquelas velhas matrizes do tipo 25,x,x,15 terão utilidade. Quero usá-las como o padrão na filtragem com a pré condição de que cada bloco deve ocorrer cheio em pelo menos uma combinação.

Para fins de simulação, já realizei alguns testes. Utilizei a 25,5,5,15 = 64 como ponto de partida. Cada bloco pode apresentar 32 configurações diferentes :

0 acerto  -  1 subset
1 acerto -   5 subsets
2 acertos - 10 subsets
3 acertos - 10 subsets
4 acertos -  5 subsets
5 acertos -  1 subset

Na simulação, mantive de propósito todos os blocos cheios (os de 5 acertos) e os subsets que saíram no último concurso como se de fato eu tivesse acertado a previsão, além deles, mantive todos os devedores em ocorrências e os mais atrasados em relação ao atraso estimado, até chegar em 85% de cobertura de cada linha da matriz. O resultado foi 5.796 combinações, entre elas o prêmio principal e mais 23 bilhetes com 14 pontos. Simulei com outros concursos e a quantidade restante sempre ficou por volta de 5.000 a 6.000, sempre mantendo o prêmio principal.

Quando simulo deixando o algoritmo "decidir sozinho", sem que eu insira de propósito o subset acertado, normalmente a equação falha e a filtragem remove o prêmio principal. As vezes erra completamente perdendo quase todos os bilhetes. E por que falha? Não sei, talvez porque eu esteja usando uma "régua" exata como parâmetro. Esse é o ponto chave, equalizar esses pesos de modo que ela acerte em pelo menos 50% das vezes o subset sorteado. Se há lógica em loterias, (e eu acredito que há), e se essa lógica se dá em pelo menos 50% dos sorteios, então vejo uma possibilidade real de se acertar o prêmio principal, mesmo que seja com 5.000 bilhetes provenientes dessa filtragem. Podemos aumentar a cobertura para 90% ou mais, obviamente a quantidade de bilhetes restantes também aumenta exponencialmente. Ainda não achei o balanceamento correto.

Amigos, essa é uma "receita" válida para todos os concursos, focar em apenas um grupinho de dezenas, ou em posições muito específicas nos remete a um percentual muito baixo de sorteios em potencial. Essa abordagem dinâmica é valida para 100% de concursos.

Vejam agora a complexidade do código:

64 blocos de 5 dezenas, cada bloco nos remete a 32 subsets = 2048 subsets, cada um deles deve ser analisado contra 775 concursos, então os 85% deles aprovados serão conferidos contra 3.2 MI combinações. Imaginem o mesmo processamento usando a 25,8,8,15 = 467 blocos * 256 subsets? Fritação de cpu na certa. Por isso estou reescrevendo a coisa toda em linguagem C.

Estudar loteria é basicamente um exercício árduo de programação, muito mais do que um conjunto de idéias. Realizar esse tipo de análise e filtragem usando softwares comerciais de terceiros seria como estudar a superfície de Plutão usando binóculos.

Sobre os grupos inéditos que saíram no 774, aqui são eles:

7 dezenas - 0 inéditos
8 dezenas - 45 inéditos
9 dezenas - 672 inéditos
10 dezenas - 1537 inéditos
11 dezenas - 1145 inéditos

Em anexo todas as combinações que possuem pelo menos 1 grupo de 7 dezenas dos 16 ainda inéditos, se tivemos qualquer um deles (ou mais de 1) no sorteio de amanhã, a combinação premiada será alguma delas.

[]

 

Sinceramente, eu acho que se a discussão for aberta, alguns irão se apropriar das idéias, papers e equações e talvez muita gente não vai ver o trem passar, digo navio !!

 

Lembro ainda que o Carlos Rodrigues postou duas fórmulas com viés, revejam:

[]
 
 O que eu uso para ter uma base da chance da dezena sair, considerando seu histórico é o seguinte:
 
 Se estiver atrasada:
 
 (v - nv / v) / v * 100
 
onde v = número de vezes consecutivas (menor ou igual) que já ocorreu de falhar a dezena, e o nv é a quantidade de vezes consecutivas que já falhou mais do que a situação atual
 
 exemplo: se a dezena 20 está atrasada a 4 concursos, o "v" será, 10 vezes atrasada uma vez + 6 vezes atrasada 2 vezes e assim consecutivamente até 4 concursos....
 
 e o nv seria o que passar de 4 concursos. se ela já atrasou 5 concursos por 2 vezes e vou somando....
 
acho que deu pra entender, não sou bom pra explicar essas coisas ahahha..
 
 Se ela estiver saindo:
 
 nv / (v + nv) * 100
 
 a única diferença é que essa o "v" eu vou somando a quantidade que ela está saindo + 1.
Esse "+1" seria uma simulação para a chance dela sair novamente.
 
 Pode ser que essas contas nem estejam totalmente corretas... eu não manjo muito de matemática e
 derivados... geralmente "invento" formulas hahaha..
 
 O Evaldo tem uma maneira muito + baseada em estudos estatísticos do que isso.... será que não daria pra COMBINAR as duas  coisas????
 
 Carlos R. L. Rodrigues
[]
 
Óbvio que o trem passa variadas vezes na estação, digo o navio passa variadas vezes no porto, basta acompanhar !!
 
[]

Achei curioso um exemplo que eu mesmo usei, um grupinho de 10 dezenas super saturado no acerto de 6, como o e-mail datado de 2012, re-levantei as estatísticas atuais.

Grupo: 01 02 06 08 10 11 12 13 18 21

Veja como ele está hoje:
 
 
raw?appid=YahooMailBasic&ymreqid=c60ee092-7380-addc-13aa-1d0000010000&token=zitEzqOML3j84e6ealFTT5U7-km5qEQF52lp7AcCuBZHYdh3djdOsvg-tPdiMXaWRUtkou5cfU3qpR2IVx3tFr_AoPYwkQAtMQfHYkqlLnPwmN245G0NoHcE_aHjEgzt
 



Continua na saturação, 58 concursos além do esperado, campeão de todos ao lado desse: 05 09 10 14 19 21 22 23 24 25

Eis o problema: a partir de qual tamanho de amostragem as ocorrências começam a tender ao equilíbrio? Eu não faço a menor idéia.

Continuamos...

[]

 

Sobre " Postar ou não Postar " eis a questão...

 

saudações,

 

Sphgf

 

p.s. Deveria haver um escritor e transformar varias discussões destas em livro iria vender uma enormidade ou não ?

 

@Sphgf, muito obrigado pelo conteudo!! Por incrivel que pareça, já estava indo nesse caminho, criando analises parecidas com a expressada. Muito obrigado pelo conteudo! Bom pra abrir a mente ainda mais.

E por incrivel que pareça, analisando os algoritmos, estou nesse lance há mais de 8 anos (e sei que muitos colegas aqui estao há mais tempo).

Entao, o que tenho a dizer é que a "formula mágica" nao existe, mas a "formula quase magica" pode existir. Mas é um caminho de aprendizado e intuiçao sem atalhos, infelizmente. Espero que logos possamos chegar em alguma coisa palpavel!!!

Sucesso sempre!!!

  • Thanks 1
Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

  • Recently Browsing   0 members

    • No registered users viewing this page.
×
×
  • Create New...