Ir para conteúdo

Good

Members
  • Total de itens

    812
  • Registro em

  • Última visita

  • Dias vencidos

    1

Posts postados por Good


  1. Boa noite,

     

    estamos utilizando visual studio numa equipe de programação. E gostaríamos de criar tipo um repositório ao vivo, onde pudéssemos ver em qual arquivo cada um está editando.

    Tipo as pessoas que estão conectadas, etc.

     

    Existe algo do tipo? Já instalei o live share, mas n é mto util, dá para ver o outro editando o código. Porém é complicado, queriamos monitorar o trabalho, ver o que está sendo feito, etc.

     

    Github já usamos também.


  2. Boa tarde,

     

    tenho uma aplicação em PHP e outra em Nodejs. Tenho necessidade de enviar um comando para processar requisições em tempo real. 

    Tenho 2 opções e gostaria de saber qual a mais viável?

     

    1. Criar uma tabela no banco de dados que o servidor nodejs irá sempre consultar e ver se tem pendências.

    2. Enviar um comando via curl para o nodejs executar naquele momento a pendência (sem necessidade do cliente ficar aguardando o node executar)

     

    Qual das duas opções é a mais eficiente??


  3. 2 horas atrás, Williams Duarte disse:

    Cloudflare

     

    ou

     

    v3 do reCaptcha, versão 3 não é mais necessário ficar resolvendo o captcha. A validação é invisível, porém ou você usa o selo do recaptcha ou coloque perto dos forms as politicas do google.

     

    Ex.:

    Protegido por reCAPTCHA - Privacidade - Condições.

     

    Isto é obrigatório.

     

    Privacidade

    https://policies.google.com/privacy?hl=pt-BR

     

    Condições
    https://policies.google.com/terms?hl=pt-BR

     

     

     

     

    não sabia dessa função. Se a validação foi negativa, como faço para exibir aquelas imagens pra selecionar? Não consegui encontrar, mas ja implementei e parece estar funcionando..


  4. Bom dia,

     

    estou tendo ataques e estão enviando via post várias requisições.

     

    Eu não posso usar captcha, pq prejudica os clientes e posso perdê-los, já fiz o teste.

    Eu pensei em criar um token que validava, porém eles conseguiram burlar. Devem ter criado uma extensão do navegador que abre a página, preenche os dados automaticamente e enviam o post.

     

    Como posso bloquear isto de modo eficaz? Não posso mais criar etapas para o cliente, tudo precisa ser feito sem que ele sinta a mudança.


  5. Bom dia,

     

    estou com dificuldades pra terminar um programa que basicamente recebe pedidos e precisamos imprimir detalhes do pedido.

     

    Eu tentei, mas fica dando problema de dll não encontrada, sendo que no código original de impressão ele funciona normalmente. Acredito que alguma coisa que eu coloquei está prejudicando a comunicação do programa com a impressora. 

     

    Se alguém tiver disponibilidade para terminar esta impressão, me chama inbox para conversarmos.


  6. Bom dia,

     

    eu tenho um formulário que as pessoas preenchem o nome, endereço, email e outros dados.

     

    E ao fazer o envio do formulário, faz algumas validações em outras apis. O sistema funciona redondo.

    E ao terminar as validações, gravo no banco de dados e posteriormente é feito um envio via CURL para outro servidor, puxando os dados gravados no BD.

    E ao chegar no último servidor, é enviado alguns formulários e outros não.

     

    Eu percebi que os formulários que chegam até o último servidor eles não tem acentuação.

    Mas aí eu tive que criar um botão para reenviar os dados. Com isso eu consigo fazer o reenvio manual. Mas eu não entendo é pq que não funciona de forma automática nas etapas de preenchimento do formulário.

     

    DETALHE: para enviar para o ultimo servidor, eu já puxo tudo do banco de dados.

     

    Meu código bem simples mesmo:

     

    			$ch = curl_init();
    			curl_setopt($ch, CURLOPT_URL, 'https://central.servidor.com.br/post.php?id='.$product['integration_b4you']);
    			curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
    			curl_setopt($ch, CURLOPT_POSTFIELDS, http_build_query($array));
    			$response = curl_exec($ch);

     

     

    Preciso adicionar algum cabeçalho? Tem como descobrir até onde o arquivo deu problema, etc.. O motivo de não ter sido enviado, ou se foi enviado e due erro lá no outro servidor, etc..


  7. Boa noite,

    tenho uma dúvida e gostaria da opinião pensando sempre em grande fluxo.

     

    Ex.: tenho um banco de dados, com tabela chamada pagamentos. Dentro dela tem as informações como usuário, valor, status, etc. 

    Eu preciso colocar comissão para alguns usuários. Vocês acham melhor eu criar uma nova tabela chamada pagamentos_comissao? Ou criar uma coluna dentro da tabela pagamentos e armazenar para puxar como array depois?

    obs.: vou ter alguns pagamentos que a comissão vai ser para 2 ou mais usuários.

     

    Qual dos 2 modos é o mais viável?


  8. 1 hora atrás, ESerra disse:

    "Consuma menos servidor"? Memória? Processador? Banda?

     

    Vamos usar apenas o raciocínio lógico:

     

    Caso 1: ler um arquivo pronto:

    Requisita arquivo ao servidor -> PHP lê o arquivo -> Arquivo é enviado para renderizar no cliente.

     

    Caso 2: pegar informação no BD:

    Requisita informação ao servidor -> requisita informação  ao PHP -> PHP requisita informação ao SGBD -> SGBD processa a informação e devolve ao PHP -> PHP processa a informação recebida -> Arquivo é enviado para renderizar ao cliente.

     

    Pelo simples lógica o caso 1 vai consumir menos recursos (processador/memória). Agora veja que, se você usar algum tipo de cache, quando você fizer uma requisição ao servidor que já tenha sido feita, ele vai seguir o fluxo do "Caso 1", o cache foi criado exatamente para você poupar processamento de coisas que já foram "feitas" em algum momento anterior, se você tem uma opção de cache, use-a, sempre vai acabar sendo a solução mais simples para diminuir a carga de processamento/uso de memória do servidor.

     

     

    Show!! Mto bom... e para este cachê, como você recomenda fazer?


  9. 6 horas atrás, ESerra disse:

    A conexão ao banco é o menor dos seus problemas, lembre-se que um banco de dados é um arquivo que é gerenciado por um software especializado (SGBD).

     

    No seu contexto, se os dados raramente são alterados (observe que isso por si só é um conceito bem abstrato) seria muito mais simples gerar os arquivos fisicamente e pronto.

     

    Vou dar um exemplo concreto, um cliente pediu para gerar um sistema em que ele pudesse criar o menu dinamicamente, esse menu teria vários elementos aninhados:

    Menu

    - Submenu

    -- Sub-Submenu

    --- Sub-Sub-Submenu

    Toda página que fosse aberta no sistema iria ter que renderizar esse menu, só que por ele ser "ilimitado" o cara poderia ter milhares de submenus, MAS depois de cadastrar tudo, ele raramente mudava/alterava/apagava algum item dentro do menu, solução? Sempre que ele alterava esse elemento, eu literalmente fazia a consulta e gravava o menu fisicamente em um arquivo e usava esse arquivo como include nas páginas do sistema, solução simples.

     

    Tem que ver se isso é aplicável ao seu caso, lembrando que os SGBDs tem ferramentas de cache também, o que alivia muito a carga deles, que de fato é o que importa.

     

     

    Então, o probelma não é gerar. A minha questão mesmo é saber qual é mais viável, que consuma menos servidor e não possa interromper o tráfego no site


  10. 1 hora atrás, Guilherme Luiz disse:

    Um banco MySQL suporta uma TONELADA de consultas e eu penso que se a informação algum dia pode ser mudada eu prefiro sempre utiliza-lo porque um arquivo estático pode ficar em cache e usuários terem informações desatualizadas.

     

    Se os dados são "fixos" e não sofrem constante alterações, crie uma table em MySAM do mysql e tudo fica resolvido porque tabelas nesse formato são otimizadas para dados "estáticos".

     

    Caso você ainda assim prefira utilizar arquivo, prefira por arquivos em JSON, mais fácil de serem manipulados.

     

     

    Entendi. Mas tipo, como as configurações são atualizadas raramente. E ainda por mim, eu posso muito bem apagar o cachê lá do cloudflare.

     

    A ideia é evitar conexões. Já que o servidor é compartilhado na hostgator, entendeu? Esqueci de citar isso kk,

     

    A dúvida mesmo, é por exemplo, se tiver 10mil conexões simultâneas. É melhor qual das 3 opções? Vamos supor também que o arquivo tenha +- 250kb de informações. O que daria mais ou menos 250 registros do banco de dados. Eu preciso sempre puxar todas as informações.

     

    Ficou mais claro agora né?

     

     


  11. Boa noite,

     

    para um sistema que é muito acessado uma página básica, mas que sempre faz conexão com banco de dados apenas para ler uma informação que já é fixada, é muito raro ter uma atualização.

     

    Então, pensando em economizar e acelerar o site, pensei nestas maneiras:

     

    1. Já uso cloudflare, e ele guarda no cachê algumas informações. Pensei em gravar as informações em TXT, e sempre usar um file_get_contents (através de uma url) para ler as informações. Será que essas informações entrarão em cachê no cloudflare e poupará mais do servidor?

    2. Então usar apenas cloudflare e puxar a informação de forma local.

    3. Manter a conexão com banco de dados a cada acesso de um usuário

     

     

    Qual das 3 opções seria mais viável para milhares de conexões diárias?


  12. 1 hora atrás, marcosmarcolin disse:

    Desconheço algum banco pronto de acordo com o código que deve ter pegado no Github, pois cada sistema atende uma determinada demanda, ou seja, o banco é modelado de acordo com a necessidade, que vejo como é o certo de ser feito.

     

    Não é código de barras, é a chave de acesso da NF que é usada para realizar transações na Sefaz.

     

    Dê uma olhada neste artigo próprio no iMasters, vai ajudar bastante: https://imasters.com.br/back-end/emitindo-nfe-com-php

     

    Descobri que a consulta do produto é feito através do XML, ou seja, supermercados, farmácias etc.. apenas fazem upload do xml e aí obtém todos os dados dos produtos.

     

    A chave de acesso é para consulta da NF, o que eu queria era obter título, valores de imposto etc, sobre cada produto cadastrado..

     

    Mas obrigado pela ajuda!!

     

    att


  13. Boa noite,

    achei a biblioteca de graça na internet para gerar NF 4.0. Porém estou com algumas dúvidas.

     

    Me falaram que através do código de barras é possível puxar todas as informações do produto no SEFAZ?

     

    Eu também acessei vários programas de gerar Nf, todos eles são totalmente diferente para cadastrar os dados fiscais, informações de tributação do produto etc. vejo que será bem trabalhoso nessa questão, por exemplo, cada produto tem tributação diferente, é bem complicado. Existe algum banco de dados que já tem todas as informações?

     

    Aguardo contato, obg


  14. 1 hora atrás, Higor Roberto disse:

    Olá Good.

    Fiz algo parecido em um sistema de laudo veicular, o sistema entregava as vistorias mais próximas do endereço do usuário, utilizei a API do google maps na época. Era bem completa. Pena que não é free.

    No seu sistema você pode delimitar uma distância para as entregas.

     

    Espero ter ajudado.

     

    òtimo Higor, também acredito ser a melhor opção.

    Você conhece uma gratuita? Estou tentando aprovar o app no waze para poder utilizar a api deles, mas faz 5 dias já...


  15. Boa noite,

    gostaria de saber como vocês fariam um sistema de delivery.

     

    Pensei em 3 soluções:

    1. Cadastrar as faixas de CEP que haverá sistema de entregas;

    2. Criar uma área delimitadora no google e exportar em KML para fazer a validação se o endereço do cliente está dentro do raio;

    3. Criar um raio de entregacom ponto fixo do estabelecimento, por exemplo, o estabelecimento só vai poder atender em um raio de até 10km.

     

    Qual método o ifood e outros gigantes trabalham? Existe algum código pronto para que eu possa dar uma olhada?

     

    Aguardo um contato, obrigado!


  16. Boa tarde,

     

    temos um servidor na amazon, e o site está direcionado para o servidor. Estamos tendo um problema, de vez em quando o servidor cai. 

     

    Gostaríamos de saber se tem algum programa no ubuntu, que monitore qual arquivo que teve alto consumo. Para sabermos se o código está escrito de maneira complexa, causando a queda do servidor.

     

    Eu lembro que uma vez a hostgator mandou um relatório, avisando que tal arquivo estava consumindo muito do servidor. É possível fazer esse monitoramento? Não temos como ficar 24h olhando por exemplo o htop..

     

    Aguardo uma resposta,

    obrigado!


  17. 56 minutos atrás, Felipe Guedes Coutinho disse:

    @Good

     

    Em questão de praticidade e implementação de código a melhor opção seria um banco para todas as lojas.

     

    Mas existe o lado performatico, imagine que cada loja tenha 10 Gigas de informação e você tenha pelo menos 200 lojas.

    Então teremos um banco de dados com 2 Teras de informação, agora com esse exemplo o que é mais rápido procurar, 1 registro dentro de 10 Gigas de informação, ou buscar 1 registro dentro de 2 Teras de informação?

     

    Então em questão de performance é muito melhor você ter um banco de dados para cada loja. melhorando a resposta, na verdade é muito melhor você ter 1 Banco de Dados COM 1 TABELA para cada LOJA VIRTUAL ou N tabelas para cada loja, eu "prefixaria" cada tabela.

     

    Com isso eu tenho um Banco de Dados "gigante", mas uma loja completamente apartada de outra loja, o que em questão de performance é muito mais performatico com o passar do tempor, mas é necessário ver todas as limitações do lado do servidor, tamanho disponível, limitações de tabelas e tudo mais...

     

    EU criaria uma lógica para que existisse 1 DB_LOJAS prefixando os nomes das tabelas, exemplo para tabelas USUARIO, PRODUTOS, CLASSIFICADO e PROMOÇÃO.

     

    1 - DB_LOJAS

        1 - TB_%nomeLojaVirtual%_USUARIO

        1 - TB_%nomeLojaVirtual%_PRODUTOS

        1 - TB_%nomeLojaVirtual%_CLASSIFICADOS

        1 - TB_%nomeLojaVirtual%_PROMOCAO

     

    1 - DB_LOJAS

    Loja KABUM

        2 - TB_KABUM_USUARIO

        2 - TB_KABUM_PRODUTOS

        2 - TB_KABUM_CLASSIFICADOS

        2 - TB_KABUM_PROMOCAO

     

    1 - DB_LOJAS

    Loja Megamamute

        3 - TB_MEGAMAMUTE_USUARIO

        3 - TB_MEGAMAMUTE_PRODUTOS

        3 - TB_MEGAMAMUTE_CLASSIFICADOS

        3 - TB_MEGAMAMUTE_PROMOCAO

     

    1 - DB_LOJAS

    Loja Magazine Luiza

        4 - TB_MAGAZINELUIZA_USUARIO

        4 - TB_MAGAZINELUIZA_PRODUTOS

        4 - TB_MAGAZINELUIZA_CLASSIFICADOS

        4 - TB_MAGAZINELUIZA_PROMOCAO


    Etc...

     

    Mas programação é a gosto de cada um.

    Espero ter ajudado.

     

    Att.

    Felipe Coutinho

     

     

     

    Ajudou muito.. obrigado por tirar um tempo.. vou analisar, pois comprei um sistema recentemente e vi que cada uma tem um banco de dados diferente. 


  18. 15 horas atrás, gabrielms disse:

    @Good 

     

    Isso você pode fazer usando qualquer linguagem, um bom exemplo e o Laravel(Framework em PHP) que armazenando session em arquivo.

     

    o PHP e o mysql suportam muita coisa com apenas 128MB de memorial. O que você pode fazer é melhor os recursos para ambos e colocar um sistema de múltiplos servidores com um sistema de segurança ante DDOS. E também projetar bem o seu banco de dados.

    massa.. valeu!! Vou aguardar outras opiniões também


  19. 13 minutos atrás, gabrielms disse:

    @Good 

     

     

    Pra que N motivos você teria um server PHP e um em Node.js? Se sua aplicação e desenvolvida em php não tem nenhum motivo para criar um server em Node.js. O único motivo para isso, seria o uso do socket web para trabalhar em tempo real.

     

     

    Os protocolos de requisição como HTTP, GET e POST são os mesmo para qualquer linguagem, se você quer criar uma API para se comunicar com diversas aplicações, basta criar um server para receber essas requisições e enviar de acordo com cada requisição.

     

    @gabrielms isso, exatamente... isso que eu quero chegar.. mas eu estou pensando em nível de eficiência... Pq eu pretendo fazer lançamento, e será um sistema com milhares de requisições diárias.. Entende? Por exemplo, com nodejs eu poderia manter armazenado temporariamente informações para que evite o uso de consulta ao banco de dados..

    Tudo tem que ser pensado de forma a ser executada mais rápido possível.


  20. 3 minutos atrás, gabrielms disse:

    @Good Boa Tarde!

     

     

    Bom o Node.js não é uma linguagem, e sim um interpretador de javascript, ele expande o uso do javascript. 

    Em questão de praticidade o PHP é mais solido e confiável, ele também tem uma das comunidade mais ativas.

     

    Para você entender como funciona um sistema de API Web, você primeiro deve entender o que é front-end e back-end. Eu não vou explicar, você acha muitos trópicos falando sobre.

     

     

    Eu faria usando, e os sistemas utilizam uma arquitetura de software. Uma bem famosa é o MVC.

     

     

    Depois dá uma olhada em XMLHTTPRequest.

     

     

    Boa tarde @gabrielms, kkkk esqueci de falar.. não sou novato... E estou pedindo ajuda para saber como vocês fariam, o que seria de fato um sistema profissional, para uso de grande fluxo..

    Mas aqui vai minhas dúvidas:

    - No nodejs, dá para criar sites, conectar com banco de dados, etc. Certo? Tipo, bastaria eu montar html e através de socket, há o envio de dados, e aí no front faria o tratamento de dados e exibiria no html as informações desejadas.. correto? Enfim, esta parte não importa muito.

     

    Então... Por exemplo, o sistema de postback, no meu sistema (o painel) provavelmente vai ser desenvolvido em PHP+MySQL... E aí, eu criaria um servidor em  nodejs para receber sempre as atualizações vindas do painel, ou seja, um formulário após ser salvado seria enviado uma requisição com os dados modificados e aí o nodejs faria a distribuição para todas as URLs cadastradas, e posteriormente eu gravaria no meu banco de dados o status da distribuição para as URLs (se é status 200, 404, etc).

     

    E o uso da API poderia ser consultada através de CURL + PHP, e outras linguagens (assim como disponibilizada diversos exemplos).. E a url que seria puxada, seria tipo um fluxo criado no nodejs.. Que retornaria informações do banco de dados de acordo com o que o usuário solicitar... O importante é criar uma página web central que retornaria dados de acordo com o que o usuário solicitar, independente de qual linguagem ele quer fazer o tratamento dos dados.

     

    Minha dúvida principal é se esta estrutura é a correta... Se tem outras linguagens melhores para fazer o trabalho de PostBack + API


  21. Boa tarde,

    eu estou estudando como funciona um sistema de API  + Postback e estou com dúvidas...

    A linguagem mais prática para isto é NodeJS? 

     

    Por exemplo, vou liberar permissão para os usuários pegarem informações da conta de cadastro dele.. E por exemplo, quando eles atualizarem as informações de cadastro como nome, cidade, estado,  etc.. o sistema deve enviar no mesmo momento um postback com as informações..

     

    Como vocês fariam este sistema? Os grandes portais utilizam como? Tipo o mercado livre, google...

     

    aguardo resposta, 

    att

×

Informação importante

Ao usar o fórum, você concorda com nossos Termos e condições.