O IPython notebook é um ambiente web onde você pode fazer cálculos, executar códigos, plotar gráficos e criar apresentações com histórias e fotos. Os arquivos criados podem ser salvos em HTML e PDF ou compartilhados no IPython Notebook Viewer. Bom, né?
Texto e código retirado deste site . I’m trying to “scrape” images from Imgur using BeautifulSoup and requests but I’m only getting the first page of results. Why? The example URL we’re given is http://imgur.com/r/funny The code uses requests to fetch the HTML and BeautifulSoup with html5lib to parse it. If you don’t have these install already you can use install them using pip e.g. pip install beautifulsoup4 requests html5lib --user One thing to note is that imgur.com has an api . You use it, taking the blue pill—the article ends. You take the red pill—you stay in Wonderland, and I show you how deep a JSON response goes. Remember: all I’m offering is the truth. Nothing more. “Developer Tools” Usually the first step to take is to debug the page in question inside your browser using the “Developer Tools” (although currently it seems to called “Web Developer” in F...
You need to pass in a sequence, but you forgot the comma to make your parameters a tuple: cursor.execute('INSERT INTO images VALUES(?)', (img,)) Without the comma, (img) is just a grouped expression, not a tuple, and thus the img string is treated as the input sequence. If that string is 74 characters long, then Python sees that as 74 separate bind values, each one character long. >>> len(img) 74 >>> len((img,)) 1 If you find it easier to read, you can also use a list literal: cursor.execute('INSERT INTO images VALUES(?)', [img]) Originally published at stackoverflow.com .
Texto e código retirado deste site . Quando realizamos tarefas de data science, é comum querermos utilizar dados encontrados na Internet. Você normalmente poderá acessar esses dados no formato .CSV ou por APIs. No entanto, existem momentos em que os dados que você quer somente podem ser acessados como parte de uma página web. Em casos assim, você pode utilizar uma técnica chamada web scraping para obter os dados que você queira da página em um formato com o qual você possa trabalhar em suas análises. biblioteca BeautifulSoup vamos buscar dados do Serviço Nacional de Meteorologia (em inglês), e depois analisar utilizando a biblioteca Pandas . Antes de seguirmos para o web scraping, vamos aprender as propriedades class e id. Essas propriedades dão nomes aos elementos HTML, e os tornam mais fáceis de interagir quando estamos fazendo o scraping. Cada elemento pode ter várias classes, e uma classe pode ser compartilhada entre elementos. Cada elemento pode ter apenas um id, e...
Comentários
Postar um comentário