java 实现文件编码检测的多种方式

java 实现文件编码检测的多种方式

一、前言

在实际开发中,我们常常涉及某些场景需要对文件的读取,但是因为不知道具体的编码格式,导致读取到的文件内容乱码,因此在读取文件内容之前,需要解析获取文件的编码,这样读取的内容就不会出现乱码了,下面是常见的几种获取文件编码的方式。

二、java实现获取文件编码的几种方式。

1.引入第三方依赖库juniversalchardet实现编码获取。

(1)首先添加juniversalchardet Maven依赖。

com.github.albfernandez

juniversalchardet

2.4.0

(2)定义一个FileEncodeUtils类。

import org.mozilla.universalchardet.UniversalDetector;

import java.io.*;

import java.nio.charset.Charset;

import java.util.Objects;

public static Charset getCharset(File file) {

try (InputStream in = new FileInputStream(file)) {

String encoding = UniversalDetector.detectCharset(in);

if (encoding != null) {

return Charset.forName(encoding);

}

} catch (Exception e) {

e.printStackTrace();

}

return Charset.defaultCharset();

}

public static void main(String[] args) {

File file = new File("D:\\111.csv");

System.err.println(getCharset(file).name());

}

运行下main方法就可以获取对应的文件编码了。

2.使用hutool工具包获取文件编码。

(1).添加maven依赖

cn.hutool

hutool-all

(2)定义一个方法获取文件编码。

public static Charset getFileCharset(File file) {

try (InputStream in = new FileInputStream(file);

ByteArrayOutputStream baos = new ByteArrayOutputStream()) {

//最多循环3次,每次2kb,主要是防止一次不能获取到编码

int cycleNum = 0;

Charset charset = null;

byte[] buffer = new byte[4096];

int len;

while (cycleNum < 3 && (len = in.read(buffer)) > -1) {

baos.write(buffer, 0, len);

baos.flush();

cycleNum++;

charset = CharsetDetector.detect(1024 * cycleNum, new ByteArrayInputStream(baos.toByteArray()), null);

if (Objects.nonNull(charset)) {

break;

}

}

if (charset != null) {

} else {

return Charset.defaultCharset();

}

return charset;

} catch (Exception e) {

//使用默认编码utf-8

return Charset.defaultCharset();

}

}

public static void main(String[] args) {

File file = new File("D:\\111.csv");

System.err.println(getFileCharset(file).name());

}

运行main方法即可获取编码。

3.基于 Java 原生 API获取编码

(1)通过 InputStreamReader 获取文件编码。

public static Charset getCharset(File file) {

try (InputStream in = new FileInputStream(file);

InputStreamReader isr = new InputStreamReader(in)) {

String encoding = isr.getEncoding(); // 返回当前流的编码(如 "UTF8")

if (encoding != null) {

return Charset.forName(encoding);

}

} catch (Exception e) {

e.printStackTrace();

}

return Charset.defaultCharset();

}

public static void main(String[] args) {

File file = new File("D:\\111.csv");

System.err.println(getCharset(file).name());

}

这个不需要依赖第三方包,但仅适用于流未被修改且编码已知的场景,对未知编码可能返回默认值(如系统编码)‌。

4.手动解析字节特征判断是否是utf8。

/**

* 判断文件内容是否为 UTF-8 编码

* @author

*/

public static boolean checkUTF8(InputStream fis) {

//请注意fis是流,是不能复用的!

try {

while (true) {

int curr = fis.read();

if (curr == -1) {

return true;

}

if (curr < 0x80) {// (10000000): 值小于0x80的为ASCII字符

return false;

} else if (curr < (0xC0)) { // (11000000): 值介于0x80与0xC0之间的为无效UTF-8字符

return false;

} else if (curr < (0xE0)) { // (11100000): 此范围内为2字节UTF-8字符

if ((fis.read() & (0xC0)) != 0x80) {

return false;

}

return true;

} else if (curr < (0xF0)) { // (11110000): 此范围内为3字节UTF-8字符

if ((fis.read() & (0xC0)) != 0x80 || (fis.read() & (0xC0)) != 0x80) {

return false;

}

return true;

} else {

return false;

}

}

} catch (IOException e) {

return true;

}

}

这种方式可以简单判断是否为utf-8编码,但实现复杂,需编码知识‌,一般不推荐。

总结:

1.‌第三方库juniversalchardet 准确性高(需足够数据支撑统计分析)‌,同时由于局限性‌:可能由于训练数据或算法原因,对某些GBK变体支持不足。

2.‌Hutool CharsetDetector实现较为基础,如通过 BOM 头或 ASCII 范围快速判断,缺乏复杂编码的统计分析能力‌。适用于简单场景(如明确已知 UTF-8 或 ASCII 编码)以及快速开发且对编码检测精度要求不高时‌。

相关推荐