ThinkChat2.0新版上线,更智能更精彩,支持会话、画图、视频、阅读、搜索等,送10W Token,即刻开启你的AI之旅 广告
# Token Filters(词元过滤器) **Token** **Filters** (词元过滤器) 接受来自 [tokenizer(分词器)](http://www.apache.wiki/pages/viewpage.action?pageId=9405270) 的 **tokens **流,并且可以修改 **tokens**(例如小写转换),删除 **tokens**(例如,删除 **stopwords** 停用词)或添加 **tokens**(例如,同义词)。 **Elasticsearch** 提供了很多内置的 **token filters**(词元过滤器),可以用于构建 [custom analyzers](https://www.elastic.co/guide/en/elasticsearch/reference/5.3/analysis-custom-analyzer.html "Custom Analyzer")(自定义分词器)。