Java怎么在播放时显示音频频谱 Java实时频谱分析仪实现教程【代码】

纯Java实现实时音频频谱需手动FFT和可视化,易卡顿延迟高;TarsosDSP最省事,支持自动分帧加窗FFT及回调输出,但须显式设采样率、50%重叠、汉宁窗补偿、dB转换与EDT线程同步。

Java 本身没有内置的实时音频频谱绘制能力,javax.sound.sampled 只能采集原始 PCM 数据,频谱计算和可视化必须手动实现——这意味着你得自己做 FFT(快速傅里叶变换),再把结果映射到图形上。不借助第三方音频处理库(如 TarsosDSP)或 JNI 封装(如 PortAudio + JNA),纯 Java 实现容易卡顿、延迟高、频谱不准。

用 TarsosDSP 做实时音频频谱最省事

TarsosDSP 是纯 Java 的音频处理库,自带 AudioDispatcherFFTSpectrumAnalyzer,适合桌面端轻量级实时分析。它从麦克风读取数据后自动分帧、加窗、FFT,并通过回调输出频谱幅值数组。

  • 必须用 AudioFormat 显式指定采样率(推荐 4410048000),否则 AudioSystem.getTargetDataLine() 可能返回不支持的格式导致静音
  • Overlap 设为 50%(即 bufferSize / 2)能提升时域分辨率,避免频谱跳变
  • 频谱点数 = bufferSize / 2 + 1(实数 FFT 输出),不是 bufferSize 全长
  • 绘图建议用 SwingpaintComponent 配合双缓冲,别在事件线程里直接 repaint()

FFT 输入前必须加汉宁窗(Hanning window)

原始音频帧直接 FFT 会产生频谱泄漏,高频能量“拖尾”,峰位偏移。TarsosDSP 默认不加窗,需手动包装 FloatBuffer 数据。

  • 窗口函数用 float[i] *= 0.5 - 0.5 * Math.cos(2 * Math.PI * i / (length - 1))
  • 加窗后要对幅值做补偿(通常 ×2),否则低频衰减明显
  • 避免用矩形窗(即不加窗)——哪怕只是调试,也会看到底噪抬升、谐波分裂

Swing 绘制频谱条时注意坐标和缩放

频谱 Y 轴是幅值(非分贝),但人耳对数响应,直接画线性值会看不到低能量频段。必须转 dB = 20 * log10(|X[i]| + 1e-9),再归一化到控件高度。

  • 不要用 Math.log10(0)——未加保护会得 -Infinity,绘图线程崩溃
  • X 轴频率分布非线性:索引 i 对应频率是 i * sampleRate / bufferSize;想看 20Hz–20kHz,bufferSize 至少取 2048(44.1kHz 下最低分辨约 21.5Hz)
  • 每帧重绘前清空 Graphics2D 背景,否则残留拖影;用 setComposite(AlphaComposite.Clear) 清屏比 fillRect 更稳
import be.tarsos.dsp.AudioDispatcher;
import be.tarsos.dsp.AudioEvent;
import be.tarsos.dsp.io.jvm.JVMAudioInputStream;
import be.tarsos.dsp.pitch.PitchDetectionHandler;
import be.tarsos.dsp.pitch.PitchDetectionResult;
import be.tarsos.dsp.pitch.PitchProcessor;

import javax.swing.; import java.awt.; import java.awt.geom.Rectangle2D;

public class SpectrumPanel extends JPanel implements PitchDetectionHandler { private final int width = 800; private final int height = 300; private final double[] spectrum = new double[1024]; private final float[] buffer = new float[2048];

public SpectrumPanel() {
    setPreferredSize(new Dimension(width, height));
    setBackground(Color.BLACK);
}

@Override
protected void paintComponent(Graphics g) {
    super.paintComponent(g);
    Graphics2D g

2 = (Graphics2D) g; g2.setRenderingHint(RenderingHints.KEY_ANTIALIASING, RenderingHints.VALUE_ANTIALIAS_ON); for (int i = 0; i < spectrum.length && i < width; i++) { double y = height - (spectrum[i] * height * 0.8); g2.setColor(new Color(0, (int)(spectrum[i]*200), 255)); g2.fill(new Rectangle2D.Double(i, y, 1, height - y)); } } @Override public void handlePitch(PitchDetectionResult result, AudioEvent e) { float[] audioBytes = e.getFloatBuffer(); System.arraycopy(audioBytes, 0, buffer, 0, Math.min(audioBytes.length, buffer.length)); // Apply Hanning window for (int i = 0; i < buffer.length; i++) { buffer[i] *= 0.5 - 0.5 * Math.cos(2 * Math.PI * i / (buffer.length - 1)); } // Simple magnitude spectrum (real FFT assumed) for (int i = 0; i < Math.min(spectrum.length, buffer.length/2+1); i++) { double re = 0, im = 0; // Dummy FFT — in real use: feed to FFT class or use Tarsos' FFT // This is placeholder logic; actual impl needs proper FFT spectrum[i] = Math.max(0.01, Math.sqrt(re*re + im*im) * 2); spectrum[i] = 20 * Math.log10(spectrum[i] + 1e-9); // to dB spectrum[i] = Math.min(1.0, Math.max(0.0, (spectrum[i] + 60) / 60)); // normalize 0–1 } repaint(); } public static void main(String[] args) { JFrame frame = new JFrame("Spectrum Analyzer"); SpectrumPanel panel = new SpectrumPanel(); frame.add(panel); AudioDispatcher dispatcher = AudioDispatcher.fromDefaultMicrophone(2048, 1024); dispatcher.addAudioProcessor(new PitchProcessor(PitchProcessor.PitchEstimationAlgorithm.FFT_YIN, 44100, 2048, panel)); new Thread(dispatcher).start(); frame.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE); frame.pack(); frame.setVisible(true); }

}

真正卡住的地方不在 FFT 算法本身,而在音频流与 UI 线程的同步:Swing 不是线程安全的,repaint() 必须在 EDT 中触发,但音频回调在后台线程。上面示例用了 TarsosDSP 的 PitchProcessor 包装器来桥接,实际项目中更稳妥的做法是用 SwingUtilities.invokeLater() 包裹 repaint(),否则偶尔会抛 NullPointerException 或界面冻结。