GPT5 详细对比分析 RFC JP 和 WEPC JP(Akari PRE JP 同机房) 落地机:

下面这份对比把你给的测量结果当作“地面实测”,再结合公开的 BGP/对等信息校对“底层拓扑”。结论先说:

结论(TL;DR)

  • 落地(收流/大带宽)更猛:RFC JP。在你这轮测试里,RFC 在东京本地下行、去美西(LAX)下/上行、去欧陆多数点位的吞吐明显更高。
  • 时延更低、更“顺滑”的区域互联:WEPC JP。WEPC 在绝大多数目的地的时延更低,但它在多条亚洲线路(含东京本地)出现 上行重传显著偏高 的现象(“k”级),对持续上传或长肥流不友好。
  • **怎么选:**大文件拉取/跨洋带宽优先→选 RFC JP;交互类、对 RTT 敏感的小流(SSH/游戏/API)→偏 WEPC JP,但要避开它在东京本地与部分亚洲方向的上行重传高峰时段。

核心数据对比(基于你提供的“七、国际互连”)

  • **总体时延(越低越好):**10 个目的地里 WEPC 9 胜,RFC 1 胜(仅 LAX 98ms vs 561ms)。
  • **发送吞吐(越高越好):**RFC 6 胜,WEPC 4 胜。
  • **接收吞吐(越高越好):**RFC 7 胜,WEPC 3 胜。
  • **发送重传(越低越好):**WEPC 5 胜、RFC 4 胜、1 平(但 WEPC 在 东京/新加坡/香港 出现 “万级(k)” 重传峰值,属于“赢场数多但有大坑”的典型)。
  • **接收重传(越低越好):**WEPC 4 胜、RFC 2 胜、4 平。

关键路向摘点:

  • **东京本地:**RFC ↑1145 Mbps / ↓4809 Mbps、重传↑7k/↓4k;WEPC ↑1040 Mbps / ↓991 Mbps、重传↑54k/↓1。→ RFC 下行“碾压”,WEPC 上行重传异常。
  • **美西 LAX:**RFC ↓1400 Mbps、↑1081 Mbps、重传较低;WEPC ↓4 Mbps、↑62 Mbps、时延 561ms。→ RFC 绝对优势(WEPC 路由明显不走太平洋直达)。
  • **欧陆(伦敦/阿姆/法兰):**RFC 接收吞吐更高(514/489/108 vs WEPC 572/478/98:伦敦接收 WEPC 更高,阿姆/法兰 RFC 略占),但 WEPC 时延普遍更低、重传多为 0 或低值。
  • 东南亚(新加坡/香港):WEPC RTT 更低,但上行重传偏高(35k/17k);RFC 吞吐更高且重传更可控(3/8)。

注:重传值单位未标注,按“绝对越大越差”解读。你给到的 “k” 级重传(尤其 WEPC 东京上行 54k)对持续上传长时 TCP 会话影响较大。


拓扑与“落地”能力校验(公开路由情报)

  • RFC(AS400618, Prime Security Corp.)
    公开资料显示其上游/邻居规模较小bgp.tools 当前列出 3 个上游(JINX、JINX v6、CTCSCI)9 个对等,并未见到你罗列的多家 Tier-1(NTT/Lumen/Level3 等)作为直接邻居;更多像是经由上游转接而非直连。([bgp.tools][1], [bgp.he.net][2])

  • WEPC(AS38136, Akari Networks)
    公开资料显示其多上游+广泛对等bgp.tools 列出 5 个上游HE(AS6939)Datacamp/CDN77=GSL(AS60068)、JINX、SpartanHost、AS983)并在多地起源大量前缀(含 Tokyo/HK/SG/TW/US);he.net 也显示其活跃、IX 连接点更多。([bgp.tools][3], [bgp.he.net][4])

解读:

  • WEPC 的多上游+IX 布局解释了它时延普遍更低、跨区路径“就近绕行”的特征;
  • RFC 虽然公开对等/上游较少,但你这次的链路测试显示它在 JP 本地及去美西吞吐做得很好,说明其 日本机房→骨干/传输 侧可能做了高带宽堆叠或“就近直拉”(但未必是“直连 Tier-1”),这也符合“可观吞吐、部分路向有重传”的观感。

谁的“落地”更强?

  • 如果把“落地”理解为对日本本地与主流跨洋方向的收流能力/大带宽承载”:
    RFC JP 更强(东京本地下行 4.8 Gbps、LAX 双向带宽与 RTT 显著优于 WEPC)。
  • 如果把“落地”侧重为广域低时延的进入路径”(尤其面向亚洲周边的小流/交互):
    WEPC JP 更顺滑(9/10 目的地 RTT 更低),但要注意其 亚洲多方向上行重传偏高 的隐患。

给运营/调优的可落地建议

  1. WEPC 的上行重传(东京/港/新)

    • 检查 bbr + fq 下的 txqueuelenrmem/wmem(你是 64 MiB 上限,可能触发微突发);试把 fq 改为 fq_codel 或在 fq 下收紧 flows/quantum
    • 若交换侧是 GSL/HE 口子,试做上行分流(例如亚洲走 JINX/HE、跨洋大流走 GSL)并开启ECN 配合。
  2. RFC 的东京本地/亚太重传

    • 你这台是 cake:确认是否为 cake bandwidth auto + diffserv3/besteffort,避免在大吞吐下启发式整形;必要时切到 fq_codel 做 A/B。
  3. 路径验证

    • WEPC→LAXmtr -Tiperf3 -R(反向)验证是否绕经欧/中转;若是,向上游(如 GSL/HE)申请 美西首选BGP 社区/本地优先级
  4. 业务选路

    • 下载/CDN 拉流/跨洋同步RFC交易/SSH/游戏/接口调用WEPC;批量上传时段尽量避开 WEPC 的尖峰。

佐证(公开资料)

  • RFC / AS400618 公共邻居与上游(JINX、CTCSCI 等),并无直接大批 Tier-1 直邻记录。([bgp.tools][1], [bgp.he.net][2])
  • WEPC / AS38136 的上游包含 Hurricane Electric(AS6939)Datacamp/CDN77=GSL(AS60068),多地区起源与活跃度高。([bgp.tools][3], [bgp.he.net][4])