您的位置:

Elasticsearch中文详解

一、什么是Elasticsearch

Elasticsearch是一个分布式的、开源的实时搜索和分析引擎。它被设计成一个支持多种数据源(如文本、数字、地理位置等)和多种查询方式的实时、分布式搜索和分析引擎。

Elasticsearch的优点在于它具有良好的扩展性、高可用性和容错性,可以处理数百万亿级别的数据。因此它被广泛应用在全文搜索、日志分析、知识图谱、商业智能、检索推荐等领域。

二、Elasticsearch中文搜索

Elasticsearch对中文的处理需要解决分词的问题。一般来说,中文分词是将一个句子或一篇文章拆分成一个个词语,而这些词语也可以是词组或者专有名词。

Elasticsearch提供了中文分词器,如IK Analyzer和Smartcn Analyzer。IK Analyzer包含两种分词算法:一个是细粒度分词,适用于搜索查询;一个是智能分词,适用于文本处理。

以下是使用IK Analyzer进行中文搜索的代码示例:

PUT /chinese_test
{
    "settings": {
        "analysis": {
            "filter": {
                "my_stop": {
                    "type": "stop",
                    "stopwords": ["的", "这"]
                }
            },
            "analyzer": {
                "ik_smart_pinyin": {
                    "tokenizer": "ik_smart",
                    "filter": ["pinyin", "my_stop"]
                }
            }
        }
    },
    "mappings": {
        "properties": {
            "title": {
                "type": "text",
                "analyzer": "ik_smart_pinyin"
            }
        }
    }
}

POST /chinese_test/_doc
{
  "title": "我是中国人"
}

GET /chinese_test/_search
{
  "query": {
    "match": {
      "title": "zhongguoren"
    }
  }
}

三、Elasticsearch中文分析

中文分析需要注意的是,中文字符没有空格,无法直接拆分成词语。Elasticsearch提供了不同的分词器来支持中文文本的分析。

除了IK Analyzer和Smartcn Analyzer,Elasticsearch还有其他一些常用的中文分词器。比如jieba分词器,它是一款开源的Python中文分词器,可以直接集成到Elasticsearch中。

以下是使用jieba分词器进行中文分析的代码示例:

PUT /chinese_test
{
    "settings": {
        "analysis": {
            "filter": {
                "my_stop": {
                    "type": "stop",
                    "stopwords": ["的", "这"]
                }
            },
            "tokenizer": {
                "jieba_tokenizer": {
                    "type": "custom",
                    "tokenizer": "jieba",
                    "use_smart": true,
                    "user_dict": "userdict.txt"
                }
            },
            "analyzer": {
                "jieba_analyzer": {
                    "tokenizer": "jieba_tokenizer",
                    "filter": ["pinyin", "my_stop"]
                }
            }
        }
    },
    "mappings": {
        "properties": {
            "title": {
                "type": "text",
                "analyzer": "jieba_analyzer"
            }
        }
    }
}

POST /chinese_test/_doc
{
  "title": "我是中国人"
}

GET /chinese_test/_analyze
{
  "text": "我是中国人",
  "analyzer": "jieba_analyzer"
}

四、Elasticsearch中文可视化

为了更好地展示Elasticsearch中文分析的结果,我们可以使用Kibana,这是Elasticsearch官方提供的可视化工具。

在Kibana中,我们可以通过创建仪表盘、可视化面板等方式来展示数据,同时也可以使用中文数据来创建可视化。

以下是使用Kibana进行Elasticsearch中文可视化的代码示例:

POST /chinese_test/_doc
{
  "title": "良心互联网"
}

GET /chinese_test/_search
{
  "query": {
    "match": {
      "title": "hulianwang"
    }
  }
}

GET /chinese_test/_search
{
  "query": {
    "match": {
      "title": "良心互联网"
    }
  }
}

GET /_cat/indices?v

GET /_search
{
  "query": {
    "match": {
      "title": "中国"
    }
  }
}

五、Elasticsearch中文聚合

Elasticsearch中文聚合指的是对文档进行分组并计算每个分组的统计信息。可以用来分析文档中的数据分布等。

以下是使用Elasticsearch中文聚合的代码示例:

GET /chinese_test/_search
{
  "size": 0, 
  "aggs" : {
    "group_by_title": {
      "terms": {
        "field": "title"
      }
    }
  }
}

六、总结

Elasticsearch是一款功能强大、高性能、高可用性和高扩展性的分布式搜索和分析引擎。针对中文的搜索和分析,Elasticsearch提供了多种分词器、可视化工具和聚合方式,为处理中文数据提供了便利。