合作夥伴聯係

輕鬆發現和集成數據,分析和AI解決方案與您的湖屋
觀看演示
背景圖像
Partner Connect使您可以直接在Databricks平台中發現數據、分析和人工智能工具,並快速集成您現在已經使用的工具。Beplay体育安卓版本使用Partner Connect,您可以將工具集成簡化為隻需幾次單擊,並快速擴展您的湖屋的功能。

整合你的lakehouse

將你的數據和人工智能工具連接到湖邊小屋

輕鬆地將你喜歡的數據和AI工具連接到湖屋,並為任何分析用例提供動力

為新用例發現驗證過的數據和AI解決方案

經過驗證的合作夥伴解決方案的一站式門戶,使您可以更快地構建下一個數據應用程序

通過預先構建的集成,隻需幾次點擊即可設置

Partner Connect通過自動配置資源(包括集群、令牌和連接文件)來連接合作夥伴解決方案,簡化了您的集成

以合作夥伴的身份開始

Databricks的合作夥伴具有獨特的定位,可以為客戶提供更快的分析洞察。beplay体育app下载地址利用Databricks的開發和合作夥伴資源,與我們開放的、基於雲的平台一起成長。Beplay体育安卓版本

成為合作夥伴

“基於我們長期的合作夥伴關係,Partner Connect使我們能夠設計出公司和客戶之間的綜合體驗。beplay体育app下载地址通過合作夥伴連接,我們正在提供一種簡化的體驗,使成千上萬的Databricks客戶比以往任何時候都更容易,無論他們現在使用Fivetran還是通過合作夥伴連接發現我們,解鎖他們的數據洞察力,發現更多的分析用例,beplay体育app下载地址通過輕鬆地將數百個數據源連接到他們的湖屋,更快地從他們的湖屋獲得價值。”

——Fivetran公司首席執行官喬治•弗雷澤

演示

視頻記錄

Fivetran演示

連接到來自Databricks的Fivetran,以簡化數據采集和維護過程。利用Fivetran的完全托管的連接數百個數據源的連接器。Fivetran還支持數據源的更改數據捕獲。

Databricks和Fivetran已經合作,通過Databricks Partner Connect為這兩個產品帶來無縫集成的體驗

用戶現在可以發現並連接到Fivetran,隻需在合作夥伴連接中單擊幾下

在合作夥伴連接中單擊Fivetran將啟動兩個產品之間的自動工作流程,其中:
- Databricks自動提供一個SQL Endpoint和相關的憑證給Fivetran進行交互,並將最佳實踐融入到Endpoint的配置中。
—Databricks通過一個安全的API將用戶的身份和SQL端點配置自動傳遞給Fivetran

然後,我們會被重定向到Fivetran的產品,要麼注冊參加Fivetran的試用,要麼登錄到Fivetran(如果我們是現有用戶)。Fivetran會自動設置一個試用帳戶。

Fivetran來自磚夥伴認識到這是一個用戶連接並自動創建一個磚目的地配置攝取到三角洲通過SQL自動配置的端點夥伴連接(這將有助於強調通過暫停視頻&放大或突出“磚夥伴-左上角的demo_cloud”圖標,用來強調已設置的自動Databricks目的地)

隨著Databricks Delta目的地已經設置好,用戶現在可以選擇他們想要從哪個源中獲取數據——我們將使用Salesforce作為源(注意,用戶可以自由選擇Fivetran支持的數百個源中的任何一個)。用戶對Salesforce源進行身份驗證,選擇他們想要攝取到Databricks Delta的Salesforce對象(在本例中是account & Contact對象),並開始初始同步

通過點擊日誌,我們可以看到Fivetran正在使用api從Salesforce讀取數據,然後通過自動設置的SQL端點將數據攝入到Databricks Delta

從Salesforce到Databricks Delta的同步頻率也可以從Fivetran配置

如果我們點擊目的地,我們可以看到SQL端點配置的細節是自動創建的結果進入Fivetran通過磚自動化合作夥伴連接——這已經為用戶節省了數十個手動步驟和複製/粘貼他們將不得不做的配置如果他們手動設置連接。它還可以防止用戶產生任何無意的配置錯誤,並花費時間調試這些錯誤

回到Databricks UI,我們可以看到Partner Connect為Fivetran自動創建的SQL Endpoint。

現在Salesforce數據通過這個SQL端點無縫地從Fivetran流向Databricks Delta,我們可以在Databricks data Explorer中查看攝取的Delta表

我們現在可以通過SQL查詢這些Salesforce表,並分析從Fivetran流入的數據,用於下遊BI分析,並與Lakehouse中的其他數據集混合

多河川的演示

從Databricks連接到Rivery,為您的整個組織簡化數據從攝取到轉換和交付到Delta Lake的過程。利用Rivery預構建的連接150多個數據源的連接器,這些數據源還支持更改數據捕獲。

Databricks和Rivery已經合作,通過Databricks合作夥伴連接為這兩個產品帶來無縫集成的體驗

用戶現在可以發現並連接到Rivery,隻需在合作夥伴連接中點擊幾下

在Partner Connect中單擊Rivery將啟動兩個產品之間的自動工作流程:
- Databricks自動提供一個SQL Endpoint和相關的憑證,讓Rivery與之交互,並將最佳實踐融入到Endpoint的配置中。
- Databricks通過一個安全的API將用戶的身份和SQL端點配置自動傳遞給Rivery

然後,我們被重定向到Rivery的產品控製台,以注冊Rivery試用或登錄到Rivery(如果我們是現有用戶)。Rivery會自動設置一個試用帳號。

現在,我們準備利用Rivery的原生數據源連接器將數據加載到Delta Lake。

Rivery識別出這是一個來自Databricks合作夥伴連接的用戶,並自動創建了一個Databricks目的地,該目的地被配置為通過由合作夥伴連接自動配置的SQL端點接收到Delta

現在,轉到Connections。它包括數據源和目標的連接。我們有一個目標連接,它是Databricks SQL。
隨著Databricks Delta目的地已經設置好,用戶現在可以選擇他們想要攝取的數據源——我們將使用Salesforce CRM作為數據源(注意,用戶可以自由選擇150多個Rivery支持的預構建數據源連接器)。用戶對Salesforce CRM源進行身份驗證,在通過測試後保存連接。它顯示在Connections列表中。

點擊“Create New River”,選擇“Source to Target”,開始數據攝取。
-選擇Salesforce CRM作為我們的數據源。它會自動填充我們之前設置的Salesforce連接。
—對於攝取配置,您可以選擇同時加載多個表,或者隻從Salesforce加載一個表。在這個演示中,我們隻選擇了一個表,即“Account”表。保存它。

-關於“目標”。對於已經設置好的Databricks Delta目標的攝取,用戶可以在Databricks端輸入現有的數據庫名稱,或者創建一個新數據庫。
我們輸入自己的數據庫名並添加表前綴。然後選擇"覆蓋"作為默認攝入模式。
-保存並點擊“運行”按鈕開始攝取工作流程。

攝取完成後,我們可以返回Databricks UI,在Databricks SQL Data Explorer中查看攝取的Delta表

我們可以看到這個表的模式、示例數據以及其他詳細信息。容易和簡單。

現在,我們可以通過SQL查詢這些Salesforce表,並分析從riveri流入的數據,進行下遊BI分析,並與Lakehouse中的其他數據集混合

預言演示

連接到預言,一個低代碼的數據工程產品,在Databricks上隻需一次點擊。使用可視化拖放界麵在Databricks集群上交互式地構建和部署Apache Spark™和Delta管道。

要開始在Databricks上的預言,請登錄到您的Databricks工作區並打開SQL界麵。

-從這裏,打開夥伴連接頁麵,並選擇預言登錄。

-當創建一個預言帳戶,Databricks將自動建立一個安全連接,以運行管道直接在您的工作空間。

隨著你的電子郵件憑證被傳遞,你隻需要選擇一個新密碼來注冊預言。

現在您已經登錄了Prophecy,讓我們看看開發和運行Spark數據管道有多容易。

讓我們選擇一個“get started”示例管道並打開工作流。

這顯示了一個可視的畫布,我們可以在上麵開始構建我們的管道。

讓我們從一個新的Databricks集群開始。

現在我們的集群已經啟動,隻需單擊一下,我們就可以進入Databricks界麵,並在您的工作區中看到我們的集群。

回到預言UI,讓我們來探索我們的管道。在這裏,我們正在閱讀“客戶”和“訂單”的兩個數據源,並將它們連接在一起……beplay体育app下载地址

....然後把這一列的數字加起來。

稍後,我們將對數據進行排序,並將其直接寫入Delta表

使用Prophecy,我們可以直接運行工作流,隻需單擊一次,就可以在每個步驟之後看到數據

我們可以看到我們的“客戶”數據,“訂單”數據,數據連接在一起....

.....the aggregated field with the summed amounts…..

..最後,我們的排序數據被寫入我們的目標Delta表

現在,讓我們通過清理一些字段來修改管道

為此,我們可以拖放一個名為“Reformat”的新“Gem”.....

…將其連接到我們現有的管道....

....然後選擇列。我們可以添加一個名為“全名”的新列,連接我們的姓和名,並添加一個清理後的數量列,該列將具有四舍五入的值。

讓我們將這個Gem重命名為“Cleanup”。

這樣,我們就可以直接在清理列之後查看工作流和數據了。

正如你所看到的,我們已經很容易地在我們的管道中添加了一個Cleanup步驟。

但是預言並不僅僅是一個視覺編輯器。在幕後,一切都被保存為高質量的Spark代碼,您可以編輯。

此外,Prophecy允許您直接將代碼存儲在Git中,從而遵循最佳的軟件工程實踐。

在這裏,我們可以直接看到我們的工作流和最新的更改,就像在Git上的Scala代碼一樣。

準備好了解更多了嗎?

利用Databricks的開發和合作夥伴資源,與我們開放的、基於雲的平台一起成長。Beplay体育安卓版本

Baidu
map