日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術(shù)文章
文章詳情頁

Apache Linkis 中間件架構(gòu)及快速安裝步驟

瀏覽:353日期:2023-03-07 14:40:01
目錄
  • 1、ApacheLinkis介紹
    • 2.1計算中間件概念
    • 2.2整體架構(gòu)
    • 2.3核心特點
    • 2.4支持的引擎類型
  • 2、ApacheLinkis快速部署
    • 2.1注意事項
    • 2.2確定環(huán)境
      • 2.2.1依賴
      • 2.2.2環(huán)境變量
    • 2.3安裝包下載
      • 2.4不依賴HDFS的基礎配置修改
        • 2.5修改數(shù)據(jù)庫配置
          • 2.6安裝
            • 2.7檢查是否安裝成功
              • 2.8快速啟動Linkis
                • 2.9問題集

                1、Apache Linkis 介紹

                Linkis 在上層應用和底層引擎之間構(gòu)建了一層計算中間件。通過使用Linkis 提供的REST/WebSocket/JDBC 等標準接口,上層應用可以方便地連接訪問Spark, Presto, Flink 等底層引擎,同時實現(xiàn)跨引擎上下文共享、統(tǒng)一的計算任務和引擎治理與編排能力。

                MySQL/Spark/Hive/Presto/Flink 等底層引擎,同時實現(xiàn)變量、腳本、函數(shù)和資源文件等用戶資源的跨上層應用互通。作為計算中間件,Linkis 提供了強大的連通、復用、編排、擴展和治理管控能力。通過計算中間件將應用層和引擎層解耦,簡化了復雜的網(wǎng)絡調(diào)用關(guān)系,降低了整體復雜度,同時節(jié)約了整體開發(fā)和維護成本。

                2.1 計算中間件概念

                沒有Linkis之前

                上層應用以緊耦合方式直連底層引擎,使得數(shù)據(jù)平臺變成復雜的網(wǎng)狀結(jié)構(gòu)

                有Linkis之后

                通過計算中間件將應用層和引擎層解耦,以標準化可復用方式簡化復雜的網(wǎng)狀調(diào)用關(guān)系,降低數(shù)據(jù)平臺復雜度

                2.2 整體架構(gòu)

                Linkis 在上層應用和底層引擎之間構(gòu)建了一層計算中間件。通過使用Linkis 提供的REST/WebSocket/JDBC 等標準接口,上層應用可以方便地連接訪問Spark, Presto, Flink 等底層引擎。

                2.3 核心特點

                • 豐富的底層計算存儲引擎支持。目前支持的計算存儲引擎:Spark、Hive、Python、Presto、ElasticSearch、MLSQL、TiSpark、JDBC和Shell等。正在支持中的計算存儲引擎:Flink(>=1.0.2版本已支持)、Impala等。支持的腳本語言:SparkSQL, HiveQL, Python, Shell, Pyspark, R, Scala 和JDBC 等。
                • 強大的計算治理能力。基于Orchestrator、Label Manager和定制的Spring Cloud Gateway等服務,Linkis能夠提供基于多級標簽的跨集群/跨IDC 細粒度路由、負載均衡、多租戶、流量控制、資源控制和編排策略(如雙活、主備等)支持能力。
                • 全棧計算存儲引擎架構(gòu)支持。能夠接收、執(zhí)行和管理針對各種計算存儲引擎的任務和請求,包括離線批量任務、交互式查詢?nèi)蝿铡崟r流式任務和存儲型任務;
                • 資源管理能力。ResourceManager 不僅具備 Linkis0.X 對 Yarn 和 Linkis EngineManager 的資源管理能力,還將提供基于標簽的多級資源分配和回收能力,讓 ResourceManager 具備跨集群、跨計算資源類型的強大資源管理能力。
                • 統(tǒng)一上下文服務。為每個計算任務生成context id,跨用戶、系統(tǒng)、計算引擎的關(guān)聯(lián)管理用戶和系統(tǒng)資源文件(JAR、ZIP、Properties等),結(jié)果集,參數(shù)變量,函數(shù)等,一處設置,處處自動引用;
                • 統(tǒng)一物料。系統(tǒng)和用戶級物料管理,可分享和流轉(zhuǎn),跨用戶、系統(tǒng)共享物料。

                2.4 支持的引擎類型

                引擎

                引擎版本

                Linkis 0.X 版本要求

                Linkis 1.X 版本要求

                說明

                Flink

                1.12.2

                >=dev-0.12.0, PR #703 尚未合并

                >=1.0.2

                Flink EngineConn。支持FlinkSQL 代碼,也支持以Flink Jar 形式啟動一個新的Yarn 應用程序。

                Impala

                >=3.2.0, CDH >=6.3.0"

                >=dev-0.12.0, PR #703 尚未合并

                ongoing

                Impala EngineConn. 支持Impala SQL 代碼.

                Presto

                >= 0.180

                >=0.11.0

                ongoing

                Presto EngineConn. 支持Presto SQL 代碼.

                ElasticSearch

                >=6.0

                >=0.11.0

                ongoing

                ElasticSearch EngineConn. 支持SQL 和DSL 代碼.

                Shell

                Bash >=2.0

                >=0.9.3

                >=1.0.0_rc1

                Shell EngineConn. 支持Bash shell 代碼.

                MLSQL

                >=1.1.0

                >=0.9.1

                ongoing

                MLSQL EngineConn. 支持MLSQL 代碼.

                JDBC

                MySQL >=5.0, Hive >=1.2.1

                >=0.9.0

                >=1.0.0_rc1

                JDBC EngineConn. 已支持MySQL 和HiveQL,可快速擴展支持其他有JDBC Driver 包的引擎, 如Oracle.

                Spark

                Apache 2.0.0~2.4.7, CDH >=5.4.0

                >=0.5.0

                >=1.0.0_rc1

                Spark EngineConn. 支持SQL, Scala, Pyspark 和R 代碼.

                Hive

                Apache >=1.0.0, CDH >=5.4.0

                >=0.5.0

                >=1.0.0_rc1

                Hive EngineConn. 支持HiveQL 代碼.

                Hadoop

                Apache >=2.6.0, CDH >=5.4.0

                >=0.5.0

                ongoing

                Hadoop EngineConn. 支持Hadoop MR/YARN application.

                Python

                >=2.6

                >=0.5.0

                >=1.0.0_rc1

                Python EngineConn. 支持python 代碼.

                TiSpark

                1.1

                >=0.5.0

                ongoing

                TiSpark EngineConn. 支持用SparkSQL 查詢TiDB.

                2、Apache Linkis 快速部署

                2.1 注意事項

                因為mysql-connector-java驅(qū)動是GPL2.0協(xié)議,不滿足Apache開源協(xié)議關(guān)于license的政策,因此從1.0.3版本開始,提供的Apache版本官方部署包,默認是沒有mysql-connector-java-x.x.x.jar的依賴包,安裝部署時需要添加依賴到對應的lib包中。

                Linkis1.0.3 默認已適配的引擎列表如下:

                引擎類型

                適配情況

                官方安裝包是否包含

                Python

                1.0已適配

                包含

                Shell

                1.0已適配

                包含

                Hive

                1.0已適配

                包含

                Spark

                1.0已適配

                包含

                2.2 確定環(huán)境

                2.2.1 依賴

                ?引擎類型?

                ?依賴環(huán)境?

                ?特殊說明?

                ?Python?

                ?Python環(huán)境?

                ?日志和結(jié)果集如果配置hdfs://則依賴HDFS環(huán)境?

                ?JDBC?

                ?可以無依賴?

                ?日志和結(jié)果集路徑如果配置hdfs://則依賴HDFS環(huán)境?

                ?Shell?

                ?可以無依賴?

                ?日志和結(jié)果集路徑如果配置hdfs://則依賴HDFS環(huán)境?

                ?Hive?

                ?依賴Hadoop和Hive環(huán)境?

                ?Spark?

                ?依賴Hadoop/Hive/Spark?

                要求:安裝Linkis需要至少3G內(nèi)存。

                默認每個微服務JVM堆內(nèi)存為512M,可以通過修改??SERVER_HEAP_SIZE??來統(tǒng)一調(diào)整每個微服務的堆內(nèi)存,如果您的服務器資源較少,我們建議修改該參數(shù)為128M。如下:

                vim ${LINKIS_HOME}/deploy-config/linkis-env.sh# java application default jvm memory.export SERVER_HEAP_SIZE="128M"

                2.2.2 環(huán)境變量

                官網(wǎng)示例:

                #JDKexport JAVA_HOME=/nemo/jdk1.8.0_141##如果不使用Hive、Spark等引擎且不依賴Hadoop,則不需要修改以下環(huán)境變量#HADOOP  export HADOOP_HOME=/appcom/Install/hadoopexport HADOOP_CONF_DIR=/appcom/config/hadoop-config#Hiveexport HIVE_HOME=/appcom/Install/hiveexport HIVE_CONF_DIR=/appcom/config/hive-config#Sparkexport SPARK_HOME=/appcom/Install/sparkexport SPARK_CONF_DIR=/appcom/config/spark-config/export PYSPARK_ALLOW_INSECURE_GATEWAY=1  # Pyspark必須加的參數(shù)

                示例:

                2.3 安裝包下載

                2.4 不依賴HDFS的基礎配置修改

                vi deploy-config/linkis-env.sh#SSH_PORT=22#指定SSH端口,如果單機版本安裝可以不配置deployUser=hadoop      #指定部署用戶LINKIS_INSTALL_HOME=/appcom/Install/Linkis    # 指定安裝目錄WORKSPACE_USER_ROOT_PATH=file:///tmp/hadoop    # 指定用戶根目錄,一般用于存儲用戶的腳本文件和日志文件等,是用戶的工作空間。RESULT_SET_ROOT_PATH=file:///tmp/linkis   # 結(jié)果集文件路徑,用于存儲Job的結(jié)果集文件ENGINECONN_ROOT_PATH=/appcom/tmp #存放ECP的安裝路徑,需要部署用戶有寫權(quán)限的本地目錄ENTRANCE_CONFIG_LOG_PATH=file:///tmp/linkis/  #ENTRANCE的日志路徑## LDAP配置,默認Linkis只支持部署用戶登錄,如果需要支持多用戶登錄可以使用LDAP,需要配置以下參數(shù):#LDAP_URL=ldap://localhost:1389/ #LDAP_BASEDN=dc=webank,dc=com

                2.5 修改數(shù)據(jù)庫配置

                vi deploy-config/db.sh

                2.6 安裝

                執(zhí)行安裝腳本:??sh bin/install.sh??

                install.sh腳本會詢問您是否需要初始化數(shù)據(jù)庫并導入元數(shù)據(jù)。

                因為擔心用戶重復執(zhí)行install.sh腳本,把數(shù)據(jù)庫中的用戶數(shù)據(jù)清空,所以在install.sh執(zhí)行時,會詢問用戶是否需要初始化數(shù)據(jù)庫并導入元數(shù)據(jù)。

                2.7 檢查是否安裝成功

                2.8 快速啟動Linkis

                啟動服務

                sh sbin/linkis-start-all.sh

                查看是否啟動成功

                可以在Eureka界面查看服務啟動成功情況,查看方法:

                使用???http://${EUREKA_INSTALL_IP}:${EUREKA_PORT}???, 在瀏覽器中打開,查看服務是否注冊成功。

                如果您沒有在config.sh指定EUREKA_INSTALL_IP和EUREKA_INSTALL_IP,則HTTP地址為:http://127.0.0.1:20303

                默認會啟動8個Linkis微服務,其中圖下linkis-cg-engineconn服務為運行任務才會啟動

                2.9 問題集

                1、telnet

                <-----start to check used cmd---->check command fail need "telnet" (your linux command not found)Failed to  + check env

                解決:sudo yum -y install telnet

                2、connection exception

                mkdir: Call From hadoop01/192.168.88.111 to hadoop01:9820 failed on connection exception: java.net.ConnectException: 拒絕連接; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefusedFailed to  + create hdfs:///tmp/linkis directory

                解決:啟動HDFS

                到此這篇關(guān)于Apache Linkis 中間件架構(gòu)及快速安裝的文章就介紹到這了,更多相關(guān)Apache Linkis 中間件內(nèi)容請搜索以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持!

                標簽: Linux Apache
                日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
                精品精品国产三级a∨在线| 蜜桃久久久久久久| 精品国产不卡| 欧美日韩水蜜桃| 亚洲女人av| 久久不见久久见中文字幕免费 | 日韩一区二区免费看| 亚洲精品日韩久久| 岛国av在线网站| 美女久久一区| 日韩福利在线观看| 亚洲精品欧美| 欧美影院精品| 久久精品福利| 亚洲性图久久| 国产亚洲网站| 人人精品人人爱| 色爱综合av| 国产不卡av一区二区| 亚洲狼人精品一区二区三区| 国产aa精品| 一区视频在线| 久久精品凹凸全集| 精品三级国产| 婷婷激情综合| 亚洲精品少妇| 国产激情久久| 国产亚洲在线观看| 国产精品v亚洲精品v日韩精品| 日韩网站中文字幕| 99久久久久国产精品| 国产精品一区二区av交换 | 1000部精品久久久久久久久| 美女尤物久久精品| 高清在线一区| 亚洲视频播放| 国产999精品在线观看| 蜜桃视频在线观看一区| 91青青国产在线观看精品| 欧美aa在线观看| 久久av一区二区三区| 精品日韩在线| 欧美午夜不卡| 日韩精品永久网址| 男女男精品网站| 久久久久国产精品一区二区| 欧美日韩99| 噜噜噜躁狠狠躁狠狠精品视频| 欧美国产美女| 久久亚州av| 国产精品中文字幕亚洲欧美| 免费看黄色91| 日韩午夜在线| 九九精品调教| 国产精品99一区二区三区| 日韩av影院| 免费在线观看视频一区| 欧美日韩国产一区二区三区不卡| 福利一区二区| 国产精品红桃| 久久狠狠亚洲综合| 日本成人在线不卡视频| 日韩美女国产精品| 日韩精品欧美大片| 91成人在线网站| 国产精品亲子伦av一区二区三区| 日韩高清一级| 国产日韩免费| 欧美黄色精品| 最新中文字幕在线播放| 伊人久久在线| 国产亚洲精品久久久久婷婷瑜伽| 亚洲一区二区毛片| 亚洲精品护士| 国产模特精品视频久久久久| 亚洲一区二区成人| 日韩欧美三区| 毛片在线网站| 国产精品探花在线观看| 在线综合视频| 日韩精品91| 免费一区二区三区在线视频| 麻豆久久精品| 欧美日韩黑人| 精品欧美一区二区三区在线观看| 日本精品一区二区三区在线观看视频| 欧美成人基地| 麻豆视频久久| 国产日产高清欧美一区二区三区 | 日韩欧美少妇| 久久精品亚洲一区二区| 日韩精品欧美大片| 国产一区白浆| 亚洲激情久久| 999久久久91| 欧美日韩视频免费观看| 国产一区二区三区日韩精品| 欧美亚洲色图校园春色| 精品欧美一区二区三区在线观看| 欧美日韩第一| 国产精品欧美日韩一区| 欧美不卡在线| 久久不卡日韩美女| 三级一区在线视频先锋| av中文字幕在线观看第一页| 女人天堂亚洲aⅴ在线观看| 国产精品羞羞答答在线观看| 99视频精品免费观看| 精品在线网站观看| 日本天堂一区| 亚洲美洲欧洲综合国产一区| 精品女同一区二区三区在线观看| 亚洲涩涩av| 免播放器亚洲| 视频福利一区| 久久亚洲人体| 国产精品**亚洲精品| 一本一本久久| 日本国产一区| 欧美国产免费| 日韩免费视频| 亚洲欧美日韩国产综合精品二区| 老鸭窝亚洲一区二区三区| 婷婷综合福利| 四虎8848精品成人免费网站| 久久天堂精品| 四虎在线精品| 国产成人久久精品一区二区三区| 日韩欧美网址| 美女久久一区| 久久精品理论片| 欧美日韩国产综合网| 久久国产精品免费精品3p| 国产精品xx| 日本中文字幕不卡| 在线一区av| 日本免费新一区视频| 在线中文字幕播放| 视频一区免费在线观看| 久久免费精品| 亚洲专区视频| 久久夜夜操妹子| 日本欧美大码aⅴ在线播放| 丝袜美腿诱惑一区二区三区| 综合激情网站| 日韩欧美精品| 久久精品国内一区二区三区| 首页欧美精品中文字幕| 樱桃视频成人在线观看| 国产精品a久久久久| 日韩中文字幕亚洲一区二区va在线| 国产极品久久久久久久久波多结野| 欧美日韩激情| 蜜桃视频在线网站| 国产欧美日韩精品一区二区免费 | 天堂久久一区| 一区二区视频欧美| 在线中文字幕播放| 久久中文字幕一区二区| 亚洲精品护士| 丝袜美腿亚洲色图| 不卡在线一区二区| 亚洲三级欧美| 国产美女高潮在线观看| 欧美一区自拍| 欧美一级久久| 日韩三区四区| 婷婷综合成人| 日本不卡在线视频| 天海翼精品一区二区三区| 日韩在线播放一区二区| 自由日本语亚洲人高潮| 激情婷婷久久| 亚洲精品a级片| 日韩视频一区| 午夜日韩在线| 久久福利影视| 中文字幕一区二区三区在线视频| 红桃视频亚洲| 蜜桃视频第一区免费观看| 蜜桃av一区二区| 亚洲网址在线观看| 亚洲精品第一| 国产精品美女在线观看直播| 国产乱码精品| 日韩av自拍| 免费不卡中文字幕在线| 怡红院精品视频在线观看极品| 国产精品日韩久久久| 亚洲精品国模| 精品成人18| 国产综合欧美| 中文字幕乱码亚洲无线精品一区| 中文字幕免费一区二区| 欧洲激情综合| 视频一区中文字幕精品| 国产福利一区二区精品秒拍| 国产精品久久久久久妇女| 亚洲天堂av影院| 久久亚洲色图|