top of page

Databricks
Explore o poder do Databricks e da Lakehouse Platform! Nesta categoria, você encontrará artigos práticos e insights sobre como unificar seus dados, análises e machine learning em uma única plataforma.
![5 _ [LAB - Hotelaria] Construção da Camada Bronze Append-Only com Databricks Asset Bundles](https://static.wixstatic.com/media/430b63_5f763c5f8c4c43cdb3871366ca98f195~mv2.png/v1/fill/w_333,h_250,fp_0.50_0.50,q_35,blur_30,enc_avif,quality_auto/430b63_5f763c5f8c4c43cdb3871366ca98f195~mv2.webp)
![5 _ [LAB - Hotelaria] Construção da Camada Bronze Append-Only com Databricks Asset Bundles](https://static.wixstatic.com/media/430b63_5f763c5f8c4c43cdb3871366ca98f195~mv2.png/v1/fill/w_305,h_229,fp_0.50_0.50,q_95,enc_avif,quality_auto/430b63_5f763c5f8c4c43cdb3871366ca98f195~mv2.webp)
5 _ [LAB - Hotelaria] Construção da Camada Bronze Append-Only com Databricks Asset Bundles
Após concluir a ingestão Source → Landing, avançamos para a construção da camada Bronze. O objetivo desta etapa foi transformar os arquivos Parquet armazenados em Unity Catalog Volumes em tabelas Delta gerenciadas no Unity Catalog, mantendo a Bronze como uma camada append-only, auditável e reprocessável. A arquitetura até este ponto ficou assim: Neon PostgreSQL ↓ Foreign Catalog: neon_hotelaria.public ↓ Job Source → Landing ↓ Unity Catalog Volume /Volumes/hotelaria_dev/landin
Michel Souza Santana
há 5 dias7 min de leitura
![4 _ [LAB - Hotelaria] Ajuste de Fundação: Contratos, CI/CD e Padronização antes da Bronze](https://static.wixstatic.com/media/430b63_f69a815994ad4c4188695cc393807f09~mv2.png/v1/fill/w_334,h_250,fp_0.50_0.50,q_35,blur_30,enc_avif,quality_auto/430b63_f69a815994ad4c4188695cc393807f09~mv2.webp)
![4 _ [LAB - Hotelaria] Ajuste de Fundação: Contratos, CI/CD e Padronização antes da Bronze](https://static.wixstatic.com/media/430b63_f69a815994ad4c4188695cc393807f09~mv2.png/v1/fill/w_306,h_229,fp_0.50_0.50,q_95,enc_avif,quality_auto/430b63_f69a815994ad4c4188695cc393807f09~mv2.webp)
4 _ [LAB - Hotelaria] Ajuste de Fundação: Contratos, CI/CD e Padronização antes da Bronze
Antes de avançarmos para a construção da camada Bronze, identificamos a necessidade de fortalecer a base do projeto. Até este ponto, já tínhamos uma ingestão funcional do Neon PostgreSQL para a Landing usando Databricks Asset Bundles, watermark e Unity Catalog Volumes. No entanto, para que o laboratório se aproxime mais de um projeto real de engenharia de dados, decidimos incluir uma camada de governança técnica antes de continuar. Esse ajuste contempla: contratos por tabela
Michel Souza Santana
há 6 dias5 min de leitura
![3 _ [LAB - Hotelaria] Ingestão Source → Landing com Databricks CLI, Asset Bundles e Unity Catalog Volumes](https://static.wixstatic.com/media/430b63_f631572693b04e16ab6e55b86a4a93db~mv2.png/v1/fill/w_333,h_250,fp_0.50_0.50,q_35,blur_30,enc_avif,quality_auto/430b63_f631572693b04e16ab6e55b86a4a93db~mv2.webp)
![3 _ [LAB - Hotelaria] Ingestão Source → Landing com Databricks CLI, Asset Bundles e Unity Catalog Volumes](https://static.wixstatic.com/media/430b63_f631572693b04e16ab6e55b86a4a93db~mv2.png/v1/fill/w_305,h_229,fp_0.50_0.50,q_95,enc_avif,quality_auto/430b63_f631572693b04e16ab6e55b86a4a93db~mv2.webp)
3 _ [LAB - Hotelaria] Ingestão Source → Landing com Databricks CLI, Asset Bundles e Unity Catalog Volumes
Nesta etapa do laboratório, o objetivo é estruturar a primeira parte do pipeline de engenharia de dados: a ingestão incremental dos dados do Neon PostgreSQL para a camada Landing no Databricks. O fluxo implementado até aqui é: Neon PostgreSQL ↓ Foreign Catalog no Databricks ↓ Job com Databricks Asset Bundles ↓ Landing em Unity Catalog Volume ↓ Arquivos Parquet particionados por tabela, data e batch Nesta fase ainda não estamos carregando a Bronze. O foco é apenas garantir que
Michel Souza Santana
há 6 dias10 min de leitura
![2 _ [LAB - Hotelaria] Integração do Neon PostgreSQL com Databricks Free Edition](https://static.wixstatic.com/media/430b63_0f94c120084448168f97c7ded696ce8a~mv2.png/v1/fill/w_333,h_250,fp_0.50_0.50,q_35,blur_30,enc_avif,quality_auto/430b63_0f94c120084448168f97c7ded696ce8a~mv2.webp)
![2 _ [LAB - Hotelaria] Integração do Neon PostgreSQL com Databricks Free Edition](https://static.wixstatic.com/media/430b63_0f94c120084448168f97c7ded696ce8a~mv2.png/v1/fill/w_305,h_229,fp_0.50_0.50,q_95,enc_avif,quality_auto/430b63_0f94c120084448168f97c7ded696ce8a~mv2.webp)
2 _ [LAB - Hotelaria] Integração do Neon PostgreSQL com Databricks Free Edition
Após definir a organização dos ambientes e camadas no Databricks, o próximo passo do laboratório será criar uma fonte de dados relacional real para simular um cenário próximo de produção. Neste projeto, usaremos o Neon PostgreSQL como banco transacional de origem e o Databricks Free Edition como plataforma Lakehouse para ingestão, transformação e organização dos dados nas camadas landing, bronze, silver e gold. A ideia é simular o fluxo: Neon PostgreSQL ↓ Databricks Connector
Michel Souza Santana
há 6 dias11 min de leitura
![1 _ [LAB - Hotelaria] Organização de Ambientes e Camadas no Databricks](https://static.wixstatic.com/media/430b63_7f46c14ed4f947338439d816c5074564~mv2.png/v1/fill/w_334,h_250,fp_0.50_0.50,q_35,blur_30,enc_avif,quality_auto/430b63_7f46c14ed4f947338439d816c5074564~mv2.webp)
![1 _ [LAB - Hotelaria] Organização de Ambientes e Camadas no Databricks](https://static.wixstatic.com/media/430b63_7f46c14ed4f947338439d816c5074564~mv2.png/v1/fill/w_306,h_229,fp_0.50_0.50,q_95,enc_avif,quality_auto/430b63_7f46c14ed4f947338439d816c5074564~mv2.webp)
1 _ [LAB - Hotelaria] Organização de Ambientes e Camadas no Databricks
Em um projeto real de engenharia de dados no Databricks, a organização entre ambientes e camadas deve considerar governança, segurança, isolamento, manutenção e clareza arquitetural. A estrutura recomendada é separar os ambientes de desenvolvimento, homologação e produção no maior nível possível, preferencialmente por workspaces distintos, e organizar as camadas do Lakehouse dentro do Unity Catalog usando catálogos e schemas. Modelo recomendado para um projeto real Em um ambi
Michel Souza Santana
há 6 dias4 min de leitura


Comecei a Entender os Databricks Bundles
Recentemente, em um projeto na empresa onde trabalho, me deparei com uma abordagem peculiar para a gestão e deploy de artefatos no...
Michel Souza Santana
3 de out. de 20254 min de leitura


JSONs Aninhados com PySpark no Databricks: Da API ao DataFrame
Olá, comunidade de dados! Quem trabalha com engenharia e análise de dados sabe que uma das tarefas mais comuns é a integração com fontes...
Michel Souza Santana
1 de out. de 20255 min de leitura


Views no Databricks: Stored, Temporary e Global Temporary Views
Na engenharia e análise de dados com Databricks, a eficiência e a organização do código são fundamentais. Entre as diversas ferramentas...
Michel Souza Santana
1 de out. de 20255 min de leitura


Databricks: Desvendando as Tabelas MANAGED e EXTERNAL
No universo da engenharia e análise de dados com Databricks, uma das decisões fundamentais ao estruturar seu Lakehouse é a escolha do...
Michel Souza Santana
1 de out. de 20255 min de leitura
bottom of page
