操屁眼的视频在线免费看,日本在线综合一区二区,久久在线观看免费视频,欧美日韩精品久久综

新聞資訊

    :安裝

    wget https://dl.influxdata.com/influxdb/releases/influxdb-1.8.3.x86_64.rpm
    sudo yum localinstall influxdb-1.8.3.x86_64.rpm

    按照后 配置文件在 /etc/influxdb/influxdb.conf

    2:全局配置

    reporting-disabled = false

    該選項用于上報influxdb的使用信息給InfluxData公司,默認值為false,將此選項設置為true將禁用報告。

    bind-address = ":8088"

    備份恢復時使用,默認值為8088。

    Metastore配置

    [meta]

    本部分控制InfluxDB metastore的參數,該metastore存儲有關用戶,數據庫,保留策略,分片和連續查詢的信息。

    dir = "/var/lib/influxdb/meta"

    meta數據存放目錄。

    retention-autocreate = true

    用于控制默認存儲策咯,數據庫創建時,會自動生成autogen的存儲策略,默認值:true。

    logging-enabled = true

    是否開啟meta日志,默認值:true

    Data配置

    [data]

    [data]設置控制InfluxDB的實際分片數據在何處以及如何從預寫日志(WAL)中清除。 dir可能需要更改為適合您的系統的位置,但是WAL設置是高級配置。 默認值適用于大多數系統。

    dir = "/var/lib/influxdb/data"

    存儲最終數據(TSM文件)的目錄,此目錄可能會更改。

    index-version = "inmem"

    用于新分片的分片索引的類型,默認inmem索引是在啟動時重新創建的內存中索引。要啟用基于時間序列(TSI)磁盤的索引,請將其值設置為tsi1。

    wal-dir = "/var/lib/influxdb/wal"

    預寫日志(WAL)文件的存儲目錄。

    wal-fsync-delay = "0s"

    寫入在fsyncing之前等待的時間。 持續時間大于0可用于批量處理多個fsync調用。 這對于較慢的磁盤或遇到WAL寫入爭用時很有用。 每次寫入WAL時值為0s fsyncs。 對于非SSD磁盤,建議使用0-100ms范圍內的值。

    validate-keys = false

    驗證傳入的寫操作以確保密鑰僅具有有效的unicode字符。 因為必須檢查每個密鑰, 所以此設置會產生少量的開銷,默認值false。

    query-log-enabled = true

    是否開啟tsm引擎查詢日志,默認值: true。 查詢日志對于故障排除很有用,但會記錄查詢中包含的所有敏感數據。

    trace-logging-enabled = false

    是否開啟跟蹤(trace)日志,默認值:false。

    TSM引擎設置

    cache-max-memory-size = 1073741824

    用于限定shard最大值,大于該值時會拒絕寫入,默認值:1000MB,單位:byte。

    cache-snapshot-memory-size = "25m"

    用于設置快照大小,大于該值時數據會刷新到tsm文件,默認值:25MB,單位:byte。

    cache-snapshot-write-cold-duration = "10m"

    如果分片尚未收到寫入或刪除操作,則tsm引擎將對緩存進行快照(snapshot)并將其寫入新的TSM文件的時間間隔,默認值:10Minute。

    compact-full-write-cold-duration = "4h"

    如果TSM引擎未收到寫入或刪除操作,則該時間間隔會將所有TSM文件壓縮到一個分片中,默認值:4h。

    max-concurrent-compactions = 0

    可以一次運行的最大并發完全和級別壓縮數。 默認值0導致50%的CPU內核在運行時用于壓縮。 如果明確設置,則用于壓縮的核數將限制為指定值。 此設置不適用于緩存快照,默認值:0。

    compact-throughput = "48m"

    是我們允許TSM壓縮寫入磁盤的速率限制(以字節/秒為單位)。 請注意,短脈沖串允許以可能更大的值發生,由Compact-Throughput-Burst設置,默認值:48m。

    compact-throughput-burst = "48m"

    是我們允許TSM壓縮寫入磁盤的速率限制(以每秒字節數為單位),默認值:48m。

    tsm-use-madv-willneed = false

    如果為true,則mmap advise值MADV_WILLNEED會就輸入/輸出頁面調度向內核建議如何處理映射的內存區域。 由于此設置在某些內核(包括CentOS和RHEL)上存在問題,因此默認值為false。 將值更改為true可能會在某些情況下幫助磁盤速度較慢的用戶。

    In-memory(inmen)索引設置

    max-series-per-database = 1000000

    限制數據庫的series數,該值為0時取消限制,默認值:1000000。

    max-values-per-tag = 100000

    一個tag最大的value數,該值為0時取消限制,默認值:100000。

    TSI(tsi1)索引設置

    max-index-log-file-size = "1m"

    索引預寫日志(WAL)文件壓縮到索引文件中時的閾值(以字節為單位)。 較小的大小將導致日志文件更快地壓縮,并導致較低的堆使用率,但會降低寫入吞吐量。 更高的大小將更少壓縮,在內存中存儲更多序列,并提供更高的寫入吞吐量。有效大小的后綴為k,m或g(不區分大小寫,1024 = 1k)。沒有大小后綴的值以字節為單位,默認值:1m。

    series-id-set-cache-size = 100

    TSI索引中用于存儲先前計算的系列結果的內部緩存的大小。 高速緩存的結果將從高速緩存中快速返回,而不是在執行具有匹配的標簽鍵值謂詞的后續查詢時需要重新計算。 將此值設置為0將禁用緩存,這可能會導致查詢性能問題。 僅當已知數據庫的所有度量中經常使用的標記鍵值謂詞的集合大于100時,才應增加此值。高速緩存大小的增加可能會導致堆使用率的增加。

    查詢管理設置

    [coordinator]

    本部分包含查詢管理的配置設置。

    write-timeout = "10s"

    寫操作超時時間,默認值: 10s。

    max-concurrent-queries = 0

    最大并發查詢數,0無限制,默認值: 0。

    query-timeout = "0s"

    查詢操作超時時間,0無限制,默認值:0s。

    log-queries-after = "0s"

    慢查詢超時時間,0無限制,默認值:0s

    max-select-point = 0

    select語句可以處理的最大點數(points),0無限制,默認值:0。

    max-select-series = 0

    SELECT語句可以處理的最大級數(series),0無限制,默認值:0

    max-select-buckets = 0

    select語句可以處理的最大"GROUP BY time()"的時間周期,0無限制,默認值:0。

    保留策咯(Retention policy)設置

    [retention]

    [retention]設置用于控制淘汰舊數據的保留策略的執行。

    enabled = true

    是否啟用該模塊,默認值 : true,設置為false可以防止InfluxDB強制執行保留策略。

    check-interval = "30m0s"

    檢查時間間隔,默認值 :“30m”。

    分區預創建(Shard precreation)設置

    [shard-precreation]

    [shard-precreation]設置控制分片的增量,以便在數據到達之前可以使用分片。 只有在創建后將在未來具有開始時間和結束時間的分片才會被創建。 永遠不會預先創建全部或部分過去的碎片。

    enabled = true

    是否啟用該模塊,默認值 : true。

    check-interval = "10m"

    檢查時間間隔,默認值 :“10m”。

    advance-period = "30m"

    預創建分區的最大提前時間,默認值 :30m。

    監控(Monitoring)設置

    [monitor]

    [monitor]部分的設置可控制InfluxDB系統的自我監視。

    默認情況下,InfluxDB將數據寫入_internal數據庫。 如果該數據庫不存在,InfluxDB會自動創建它。 _internal數據庫上的DEFAULT保留策略為7天。 如果要使用7天保留策略以外的保留策略,則必須創建它。

    store-enabled = true

    是否啟用該模塊,默認值 :true。

    store-database = "_internal"

    默認數據庫:"_internal"

    store-interval = "10s"

    統計間隔,默認值:"10s"

    HTTP端點設置

    [http]

    [http]部分的設置控制InfluxDB如何配置HTTP端點。 這些是將數據傳入和傳出InfluxDB的主要機制。 編輯此部分中的設置以啟用HTTPS和身份驗證。

    enabled = true

    是否啟用該模塊,默認值 :true。

    flux-enabled = false

    是否啟用流查詢端點,默認值 :false。

    flux-log-enabled = false

    是否啟用流查詢日志。

    bind-address = ":8086"

    綁定地址,默認值:":8086"。

    auth-enabled = false

    是否開啟認證,默認值:false。

    log-enabled = true

    是否開啟http請求日志,默認值:true。

    suppress-write-log = false

    在啟用日志時是否應禁止HTTP寫入請求日志,默認值:false。

    write-tracing = false

    是否開啟寫操作日志,如果置成true,每一次寫操作都會打日志,默認值:false。

    pprof-enabled = true

    是否開啟pprof,此端點用于故障排除和監視,默認值:true。

    pprof-auth-enabled = false

    是否在/debug端點上啟用身份驗證。

    debug-pprof-enabled = false

    啟用默認的/ pprof端點并綁定到localhost:6060。 對于調試啟動性能問題很有用。默認值:false。

    ping-auth-enabled = false

    在/ ping,/ metrics和已棄用的/ status端點上啟用身份驗證。 如果auth-enabled設置為false,則此設置無效。

    https-enabled = false

    確定是否啟用HTTPS。 要啟用HTTPS,請將值設置為true。

    https-certificate = "/etc/ssl/influxdb.pem"

    啟用HTTPS時要使用的SSL證書文件的路徑。

    https-private-key = ""

    設置https私鑰,無默認值。

    max-row-limit = 0

    系統在非分塊查詢中可以返回的最大行數。 默認設置(0)允許無限制的行數。 如果查詢結果超過指定的值,則InfluxDB在響應正文中包含一個“ partial”:true標記。

    max-connection-limit = 0

    一次可以打開的最大連接數。 超出限制的新連接將被刪除。

    默認值0禁用該限制。

    shared-secret = ""

    用于使用JWT令牌驗證公共API請求的共享密鑰。

    realm = "InfluxDB"

    發出基本身份驗證質詢時發送回的默認域,默認值: “InfluxDB”。

    unix-socket-enabled = false

    通過UNIX域套接字啟用HTTP服務。 要通過UNIX域套接字啟用HTTP服務,請將值設置為true。

    bind-socket = "/var/run/influxdb.sock"

    unix-socket路徑,默認值:"/var/run/influxdb.sock"。

    max-body-size = 25000000

    客戶端請求正文的最大大小(以字節為單位), 將此值設置為0將禁用該限制。默認值:25000000。

    access-log-path = ""

    啟用HTTP請求日志記錄時,此選項指定應寫入日志條目的路徑。

    max-concurrent-write-limit = 0

    并發處理的最大寫入次數,將此設置為0將禁用該限制。默認值:0。

    max-enqueued-write-limit = 0

    排隊等待處理的最大寫入次數。將此設置為0將禁用該限制。默認值:0。

    enqueued-write-timeout = 0

    寫入等待隊列中寫入的最長持續時間。將此設置為0或將max-concurrent-write-limit設置為0將禁用該限制。默認值:0。

    日志(Logging)設置

    [logging]

    控制記錄器如何將日志發送到輸出。

    format = "auto"

    確定用于日志的日志編碼器。 可用選項包括auto,logfmt和json。 如果輸出終端是TTY,則auto將使用更加用戶友好的輸出格式,但格式不易于機器讀取。 當輸出是非TTY時,auto將使用logfmt。默認值:“auto”。

    level = "info"

    確定將發出的日志級別。 可用的級別包括錯誤,警告,信息和調試。 將發出等于或高于指定級別的日志。默認值:“info”。

    suppress-logo = false

    禁止在程序啟動時打印的徽標輸出。 如果STDOUT不是TTY,則始終禁止使用徽標。默認值:false。

    訂閱(Subscription)設置

    [subscriber]

    [subscriber]部分控制Kapacitor如何接收數據。

    enabled = true

    是否啟用該模塊,默認值 :true。

    http-timeout = "30s"

    http超時時間,默認值:“30s”。

    insecure-skip-verify = false

    是否允許不安全的證書,當測試自己簽發的證書時比較有用。默認值: false。

    ca-certs = ""

    設置CA證書,無默認值。

    write-concurrency = 40

    設置并發數目,默認值:40。

    write-buffer-size = 1000

    設置buffer大小,默認值:1000。

    Graphite設置

    enabled = false

    是否啟用該模塊,默認值 :false。

    bind-address = ":2003"

    默認端口。

    database = "graphite"

    數據庫名稱,默認值:“graphite”。

    retention-policy = ""

    存儲策略,無默認值。

    consistency-level = "one"

    一致性等級,默認值:“one”。

    tls-enabled = false

    是否開啟tls,默認值:false。

    certificate = "/etc/ssl/influxdb.pem"

    證書路徑,默認值:"/etc/ssl/influxdb.pem"。

    batch-size = 1000

    這些下一行控制批處理的工作方式。 您應該已啟用此功能,否則您可能會丟失指標或性能不佳。 僅通過telnet協議接收的指標進行批處理。如果這么多點被緩沖,請刷新。默認值:1000。

    batch-pending = 5

    內存中可能掛起的批次數,默認值:5。

    batch-timeout = "1s"

    即使輸入未達到配置的批量大小,輸入也會至少刷新一次。默認值:“1s”。

    log-point-errors = true

    出錯時是否記錄日志,默認值:true。

    UDP設置

    [[udp]]

    [[udp]]設置使用UDP控制InfluxDB線路協議數據的偵聽器。

    enabled = false

    是否啟用該模塊,默認值:false。

    bind-address = ":8089"

    綁定地址,默認值:":8089"。

    database = "udp"

    數據庫名稱,默認值:“udp”。

    retention-policy = ""

    存儲策略,無默認值。

    batch-size = 5000

    接下來的行控制批處理的工作原理。 您應該已啟用此功能,否則您可能會丟失指標或性能不佳。 如果有很多進入,批處理將緩沖內存中的點。如果這么多點被緩沖,則刷新,默認值:5000。

    batch-pending = 10

    如果這么多點被緩沖,請刷新,默認值:10。

    read-buffer = 0

    udp讀取buffer的大小,0表示使用操作系統提供的值,如果超過操作系統的默認配置則會出錯。 默認值:0。

    batch-timeout = "1s"

    即使輸入未達到配置的批量大小,輸入也會至少刷新一次。默認值:“1s”。

    precision = ""

    解碼時間值時使用的時間精度。 默認值為納秒,這是數據庫的默認值。

    連續查詢(Continuous queries)設置

    [continuous_queries]

    [continuous_queries]設置控制InfluxDB中連續查詢(CQ)的運行方式。 連續查詢是在最近的時間間隔內執行的自動查詢批次。 InfluxDB每個GROUP BY time()間隔執行一個自動生成的查詢。

    log-enabled = true

    是否開啟日志,默認值:true。

    enabled = true

    是否開啟CQs,默認值:true。

    query-stats-enabled = false

    控制是否將查詢記錄到自我監視數據存儲。默認值:false。

    run-interval = "1s"

    檢查連續查詢是否需要運行的時間間隔,默認值:“1s”。

    [tls]

    InfluxDB中TLS的全局配置設置。

    min-version = ""

    將協商的tls協議的最低版本。 如果未指定,則使用Go的crypto / tls包中的默認設置,默認值:“tls1.2”。

    max-version = ""

    將協商的tls協議的最大版本。 如果未指定,則使用Go的crypto / tls包中的默認設置,默認值:“tls1.2”。


    3:啟動等命令

    狀態:service influxdb status

    啟動:service influxdb start

    關閉:service influxdb start

    4:添加用戶認證步驟

    首先創建一個admin用戶

    以下語句都可以直接在InfluxDB的Web管理界面中調用:

    # 顯示用戶
    SHOW USERS
    # 創建用戶
    CREATE USER "username" WITH PASSWORD 'password'
    # 創建管理員權限的用戶
    CREATE USER <username> WITH PASSWORD '<password>' WITH ALL PRIVILEGES
    # 刪除用戶
    DROP USER "username"

    默認情況下,認證在配置文件是禁用的

    需要在配置文件里把 [http] 下的 auth-enabled 選項設置為 true 。

    vim /etc/influxdb/influxdb.conf
    [http]
      enabled = true
      bind-address = ":8086"
      auth-enabled = true # ?
      log-enabled = true
      write-tracing = false
      pprof-enabled = false
      https-enabled = false
      https-certificate = "/etc/ssl/influxdb.pem"

    重啟進程

    最后重啟 influxd 即可。以后使用 influx 就需要username和password。

    influx -username -password


    5:基本命令

    influx 啟動influxdb客戶端,如同mysql -u xxx功能

    create database db1 創建數據庫db1

    show databases 查看數據庫列表

    use db1 使用數據庫db1,是不是和mysql中功能類似

    show measurements 查看measurement列表


    drop database db1 刪除數據庫db1

    drop measurement mt1 刪除表mt1

    delete from measurement [WHERE <tag_key> ]

    drop shard <shard_id_num> 刪除分片


    select * from measurement_name [WHERE <tag_key> ] [limit xx] 查看數據

    show series [on dbname] [from measurement] [WHERE <tag_key> ] [limit xx] 查看series信息

    show tag keys [on dbname] [from measurement] [WHERE <tag_key> ] [limit xx] 查看tag keys信息

    show field keys [on dbname] [from measurement] 查看field keys


    6:cli 查詢的時候 數據時間格式化 precision rfc3339


    7:簡易的客戶端安裝

    https://github.com/CymaticLabs/InfluxDBStudio/releases/tag/v0.2.0-beta.1


    8:進行查詢的時候 時間區域 格式化等設置

    本文分享自華為云社區《【云小課】EI第39課 MRS基礎原理之Hudi介紹》,作者:Hello EI。

    閱識風云是華為云信息大咖,擅長將復雜信息多元化呈現,其出品的一張圖(云圖說)、深入淺出的博文(云小課)或短視頻(云視廳)總有一款能讓您快速上手華為云。

    Hudi是數據湖的文件組織層,對Parquet格式文件進行管理提供數據湖能力,支持多種計算引擎,提供IUD接口,在 HDFS的數據集上提供了插入更新和增量拉取的流原語。

    Hudi結構

    Hudi的架構如下圖所示:

    Hudi支持兩種表類型

    Copy On Write

    寫時復制表也簡稱cow表,使用parquet文件存儲數據,內部的更新操作需要通過重寫原始parquet文件完成。

    • 優點:讀取時,只讀取對應分區的一個數據文件即可,較為高效。
    • 缺點:數據寫入的時候,需要復制一個先前的副本再在其基礎上生成新的數據文件,這個過程比較耗時。且由于耗時,讀請求讀取到的數據相對就會滯后

    Merge On Read

    讀時合并表也簡稱mor表,使用列格式parquet和行格式Avro兩種方式混合存儲數據。其中parquet格式文件用于存儲基礎數據,Avro格式文件(也可叫做log文件)用于存儲增量數據。

    優點:由于寫入數據先寫delta log,且delta log較小,所以寫入成本較低。

    缺點:需要定期合并整理compact,否則碎片文件較多。讀取性能較差,因為需要將delta log 和 老數據文件合并。

    Hudi支持三種視圖,針對不同場景提供相應的讀能力

    Snapshot View

    實時視圖:該視圖提供當前hudi表最新的快照數據,即一旦有最新的數據寫入hudi表,通過該視圖就可以查出剛寫入的新數據。

    cow表和mor均支持這種視圖能力。

    Incremental View

    增量視圖:該視圖提供增量查詢的能力,可以查詢指定COMMIT之后的增量數據,可用于快速拉取增量數據。

    cow表支持該種視圖能力, mor表也可以支持該視圖,但是一旦mor表完成compact操作其增量視圖能力消失。

    Read Optimized View

    讀優化視圖:該視圖只會提供最新版本的parquet文件中存儲的數據。

    該視圖在cow表和mor表上表現不同:

    • 對于cow表,該視圖能力和實時視圖能力是一樣的(cow表只用parquet文件存數據)。
    • 對于mor表,僅訪問基本文件,提供給定文件片自上次執行compact操作以來的數據, 可簡單理解為該視圖只會提供mor表parquet文件存儲的數據,log文件里面的數據將被忽略。 該視圖數據并不一定是最新的,但是mor表一旦完成compact操作,增量log數據被合入到了base數據里面,這個時候該視圖和實時視圖能力一樣。

    如何使用Hudi

    目前Hudi集成在MRS集群的Spark2x服務中,使用Hudi需要安裝Spark2x組件,并安裝客戶端。

    • MRS集群的創建可參考創建集群,例如購買MRS 3.1.0版本集群。
    • 安裝Spark2x客戶端,可參考安裝客戶端,例如客戶端安裝目錄為:“/opt/client”。
    • 安全模式(開啟Kerberos認證)集群,在使用Hudi時,需要創建一個具有訪問Hudi權限的用戶,可參考創建用戶,用戶組選擇hadoop、hive和supergroup,主組選擇hadoop,角色選擇System_administrator,例如創建人機用戶“testuser”。
    1. 使用root用戶登錄集群客戶端節點,執行如下命令:cd /opt/client source bigdata_env source Hudi/component_env kinit testuser
    2. 執行以下命令進入Spark SQL命令行。spark-sql --master yarn
    3. 準備Hive數據表。drop table if exists hivetb_text; create table hivetb_text (id int, comb long, name string, dt date) row format delimited fields terminated by ',' stored as textfile; insert into hivetb_text values (3,301,'0003','2021-09-11'),(4,400,'0004','2021-09-11');
    4. 創建Hudi Cow分區表。drop table if exists hudi_test1; create table hudi_test1 (id int, comb long, name string, dt date) using hudi partitioned by (dt) options(type='cow',primaryKey='id', preCombineField='comb');
    5. 執行insert,插入數據,并查詢結果。insert into hudi_test1 values (1,100,'aaa','2021-08-28'),(2,200,'bbb','2021-08-28'); insert into hudi_test1 select 3,300,'ccc','2021-09-11'; select id,comb,dt,name from hudi_test1;
    6. 執行update,更新數據,并查詢結果。update hudi_test1 set name='0001' where id = 1; select id,comb,dt,name from hudi_test1;
    7. 執行delete,刪除數據,并查詢結果。delete from hudi_test1 where id = 2; select id,comb,dt,name from hudi_test1;
    8. 執行merge,寫入增量數據,并查詢結果。merge into hudi_test1 t1 using hivetb_text t2 on t1.id = t2.id when matched then update set id=t2.id, comb=t2.comb, name='aaaa', dt=t2.dt when not matched then insert *; select id,comb,dt,name from hudi_test1;

    好了,本期云小課就介紹到這里,快去體驗MapReduce(MRS)更多功能吧!(https://support.huaweicloud.com/mrs/index.html)

    關注我,第一時間了解華為云新鮮技術~

網站首頁   |    關于我們   |    公司新聞   |    產品方案   |    用戶案例   |    售后服務   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區    電話:010-     郵箱:@126.com

備案號:冀ICP備2024067069號-3 北京科技有限公司版權所有