d.const.f32 %f18, [params+4]; mov.b32 {%rs1, %rs3}, %r4; // begin inline asm { cvt.f32.f16 %f1, %rs1;} // end inline asm fma.rn.ftz.f32 %f2, %f1, %f17, %f18; // begin inline asm { cvt.f32.f16 %f3, %rs3;} // end inline asm fma.rn.ftz.f32 %f4, %f3, %f17, %f18; // begin inline asm { cvt.rn.f16.f32 %rs4, %f4;} // end inline asm // begin inline asm { cvt.rn.f16.f32 %rs2, %f2;} // end inline asm mov.b32 %r5, {%rs2, %rs4}; mov.b32 {%rs5, %rs7}, %r3; // begin inline asm { cvt.f32.f16 %f5, %rs5;} // end inline asm fma.rn.ftz.f32 %f6, %f5, %f17, %f18; // begin inline asm { cvt.f32.f16 %f7, %rs7;} // end inline asm fma.rn.ftz.f32 %f8, %f7, %f17, %f18; // begin inline asm { cvt.rn.f16.f32 %rs8, %f8;} // end inline asm // begin inline asm { cvt.rn.f16.f32 %rs6, %f6;} // end inline asm mov.b32 %r6, {%rs6, %rs8}; mov.b32 {%rs9, %rs11}, %r2; // begin inline asm { cvt.f32.f16 %f9, %rs9;} // end inline asm fma.rn.ftz.f32 %f10, %f9, %f17, %f18; // begin inline asm { cvt.f32.f16 %f11, %rs11;} // end inline asm fma.rn.ftz.f32 %f12, %f11, %f17, %f18; // begin inline asm { cvt.rn.f16.f32 %rs12, %f12;} // end inline asm // begin inline asm { cvt.rn.f16.f32 %rs10, %f10;} // end inline asm mov.b32 %r7, {%rs10, %rs12}; mov.b32 {%rs13, %rs15}, %r1; // begin inline asm { cvt.f32.f16 %f13, %rs13;} // end inline asm fma.rn.ftz.f32 %f14, %f13, %f17, %f18; // begin inline asm { cvt.f32.f16 %f15, %rs15;} // end inline asm fma.rn.ftz.f32 %f16, %f15, %f17, %f18; // begin inline asm { cvt.rn.f16.f32 %rs16, %f16;} // end inline asm // begin inline asm { cvt.rn.f16.f32 %rs14, %f14;} // end inline asm mov.b32 %r8, {%rs14, %rs16}; mov.b32 %f19, %r8; mov.b32 %f20, %r7; mov.b32 %f21, %r6; mov.b32 %f22, %r5; st.param.f32 [func_retval0+0], %f22; st.param.f32 [func_retval0+4], %f21; st.param.f32 [func_retval0+8], %f20; st.param.f32 [func_retval0+12], %f19; ret; }