用 spark streaming 从 kafka 实时收到的日志完成按小时统计的功能,该怎么做?

回答·4
最热
最新
  • Batch time 1 小时?
  • 这个就是最基本的聚合操作,应该看官网的指南就可以了。有没有考虑过其他的流处理模型,比如Flink,kafka streams 之类的?
  • 周期性算子,mappartition 搞定
  • 这个我还没有学会,等我学会了告诉你哦