diff --git a/.nojekyll b/.nojekyll index d1e379951..85d1edd6c 100644 --- a/.nojekyll +++ b/.nojekyll @@ -1 +1 @@ -9d325e23 \ No newline at end of file +ea56e044 \ No newline at end of file diff --git a/databases.html b/databases.html index 963cbfd40..cb6fe7e79 100644 --- a/databases.html +++ b/databases.html @@ -838,12 +838,12 @@
Se você quiser saber mais em como o NULL
funciona, você irá gostar do artigo “Three valued logic” de Markus Winand.
today()
#> [1] "2024-04-28"
now()
-#> [1] "2024-04-28 07:45:59 AEST"
+#> [1] "2024-04-28 07:51:35 AEST"
Otherwise, the following sections describe the four ways you’re likely to create a date/time:
Olá! Este capítulo do livro ainda não está traduzido para a versão Português-BR.
Caso você queira contribuir com o projeto de tradução, leia as instruções em: https://github.com/cienciadedatos/pt-r4ds/wiki
A versão original (em inglês) do livro R for Data Science está disponível em: https://r4ds.hadley.nz/
Este capítulo faz a introdução do básico sobre raspagem de dados (web scraping) com o pacote rvest. Raspagem de dados é uma ferramenta muito útil para extração de dados de páginas web. Alguns websites oferecem uma API, um conjunto de requisições HTTP estruturadas que retornam dados no formato JSON, com o qual você pode lidar usando as técnicas do Capítulo 23. Sempre que possível, você deve usar uma API1, pois geralmente te retornará dados mais confiáveis. Entretanto, infelizmente, programar com APIs web está fora do escopo deste livro. Ao invés disso, ensinaremos sobre raspagem de dados, uma técnica que funciona independentemente de o site fornecer uma API ou não.
Neste capítulo, discutiremos primeiro sobre ética e legalidade da raspagem de dados antes de falar sobre o básico de HTML. Você aprenderá o básico sobre seletores CSS para localizar elementos específicos em uma página, e como usar funções do rvest para obter dados de textos e atributos de um HTML para o R. Depois, discutiremos algumas técnicas para descobrir qual seletor CSS você precisa para a página que está fazendo a raspagem de dados e terminaremos falando sobre alguns estudos de caso e uma breve discussão sobre websites dinâmicos.