torch.optim.adagrad.adagrad =========================== .. currentmodule:: torch.optim.adagrad .. autofunction:: adagrad