sql拆分字符串split mysql表數(shù)據(jù)量太大,達到了1億多條數(shù)據(jù),除了分庫分表之外,還有沒有其他的解決方式?
mysql表數(shù)據(jù)量太大,達到了1億多條數(shù)據(jù),除了分庫分表之外,還有沒有其他的解決方式?在正常配置下,MySQL只能承載2000萬數(shù)據(jù)(同時讀寫,表中有大文本字段,單服務器)。現(xiàn)在已經(jīng)超過1億,而且還在
mysql表數(shù)據(jù)量太大,達到了1億多條數(shù)據(jù),除了分庫分表之外,還有沒有其他的解決方式?
在正常配置下,MySQL只能承載2000萬數(shù)據(jù)(同時讀寫,表中有大文本字段,單服務器)?,F(xiàn)在已經(jīng)超過1億,而且還在增加,建議按以下方式處理:
1子表。它可以按時間或一定的規(guī)則進行拆分,以便盡可能地查詢子表中的數(shù)據(jù)庫。這是最有效的方法。特別是寫,放入一個新表,并定期同步。如果記錄不斷更新,最好將寫入的數(shù)據(jù)放在redis中,并定期同步表3的大文本字段,將它們分隔成一個新的獨立表。對于較大的文本字段,可以使用NoSQL數(shù)據(jù)庫
4優(yōu)化體系結構,或者優(yōu)化SQL查詢,避免聯(lián)合表查詢,盡量不要使用count(*)、in、recursion等性能消耗語句
5使用內(nèi)存緩存,或者在前端讀取時增加緩存數(shù)據(jù)庫。重復讀取時,直接從緩存中讀取。
以上是一種低成本的管理方法,基本上幾個服務器就可以做到,但是管理起來有點麻煩。
當然,如果總體數(shù)據(jù)量特別大,并且您不關心投資成本,那么PostgreSQL的基本思想是將記錄集的行構造成字典。例如,它有一個函數(shù),row到JSON用于構造JSON字典。假設表名是test,您可以:
或者剩下的是如何遍歷JSON字典以獲得具有最大值的鍵。例如,只需編寫一個函數(shù)。它也可以用于應用層。您還可以使用JSON到記錄集。當然,一般來說,比較中涉及的列數(shù)是確定的。例如,如果要比較(高度、寬度、長度),請使用“聯(lián)接”將它們逐個聯(lián)接到id,每個結果集都將成為由id、字段名和字段值兩列組成的結果集,然后合并為一個較大的結果集。其余的是基本的select max操作。以上都是基于PostgreSQL的。我說得很簡單,但沒有給出完整的結果。我們來看看思路。有一些想法如果沒有預備知識,也不容易只通過搜索引擎找到,不過,不建議你用百度。