GLM模型得分非常快。可以在单个lambda API调用中将它们串联起来。模型预测延迟不会很糟糕。数据库表查找可能会主导延迟。
对于大量事务问题而言,重要的是多个事务可以并行发生,并且使用AWS lambda端点是让Amazon处理该问题而不必创建自己的方式的好方法。