博弘雲端提供包含AWS解決方案、中國解決方案等一站式雲端服務,您可以點選並深入了解相關服務內容,或是根據您的產業類別進行選擇。
博弘雲端致力發展多元化的自有產品和服務,自主研發智能雲資源管理平台和生成式 AI 解決方案,同時圍繞三大核心技術架構:Optimization 持續優化、Data 數據應用和 Security 資訊安全,提供雲端專業服務及全天候託管服務,全力支持企業的數位及數據應用轉型,強健企業韌性。
博弘雲端提供建立於雲端基礎之上的各式數位整合加值服務,提升雲端服務運作效能,極大化企業綜效。
服務全球超過2000家企業客戶,博弘雲端提供專業的雲端解決方案,協助企業優化雲端架構與提供完整的技術諮詢。我們致力於協助客戶在雲端服務上取得成功,用雲端在各個產業取得領先的優勢。
首頁 » bigdata
Filter by:
Showing 1-9 of 9 results
04/19 2021
儲存 大量資料時,影響查詢速度怎麼辦?本篇要介紹會使用到的資料切分方式 Partition 。當資料量小時在查詢的速度上不會有感覺,但今天資料量以機累積了一年兩年五年時,資料的大小與資料筆數就會很大的影響查詢度,所以 Partition 在 數據分析 中非常重要
03/25 2021
在上一篇講解完整的流程後,我們再回來說明 Table 的資訊與可調整的部分Table 說明:6-1. 點選創建成功的 Table Name,接著在6-2. 可以看到這個 Table 的詳細資訊, Classification 是哪一個類型的資料,原始資料所在的 AWS S3 路徑
上一篇說明使用 Athena 前需要執行的設定,本篇要接著使用 Athena 進行查詢,5-2. 設定完成後,就可以開始查詢 order.csv 裡的資料,Athena 是使用標準 SQL 進行查詢,所以如果會使用 SQL 操作 資料庫 ,再來是用 Athena 進行查詢分析幾乎是
03/17 2021
延續昨天的步驟繼續將 Crawler 設定完成:IAM 的部分選擇我們在步驟 1-1 時創建的 IAM Role(ITGlue),Schedul 可以設定 Crawler 是否要定期執行,通常這個會用在需要將新的 Partition 更新到 Table 中時所使用
上一篇完成前置步驟後,Glue Data Catelog 教學就進入到創建 Crawler啦!首先切換到 Crawlers 頁面,點選 Add crawlers,再點開 Crawler name 下面的選單,點選 Custom classifiers 裡剛剛創建的
03/11 2021
了解 Classifiers 後,要來介紹如何將 Classifiers 與 Crawlers 結合進行資料爬取Crawlers 的部分會以一個小範例進行說明,首先我們要到 Kaggle 取得範例資料,資料內容為零售業的歷史訂單資料
03/10 2021
講解完 Data Catalog 以及 Classifiers 、 Crawlers 、 Tables 的關係之後,接著介紹 JSON、CSV 的 Classifiers 設定。JSON path:此處設定如何讀取 JSON 檔?例如 JSON 檔內容如下
03/03 2021
Data Catalog 由 Classifiers、Crawlers、Tables 組成首先介紹 Classifiers,Classifiers 負責定義所要爬取的資料類型與內容格式,如下圖所示有 XML、JSON、CSV,而 Grok 是指自定義的資料內容格式
AWS Glue有另外兩個主要功能:ETL JobETL Job 有三種 ETL 方式可使用Python shell當資料量還不需要分散式運算的計算量時,可以考慮使用 Python shell,Python shell 與 Lambda 相似,可以執行 Python Script