<div dir="ltr">Hello all,<div><br></div><div>I saw 4.6 was released, great! From the release notes:</div><div><br></div><div>> SMP performance was already very good. As part of the NVMe driver work we revamped the buffer cache subsystem and a number of other I/O related paths, further reducing lock contention and IPI signalling overheads.<br></div><div><br></div><div>Was the IPI signaling cost reduced due to the cache improvements, or were there other updates specifically for the IPI subsystem to improve the performance?</div><div><br></div><div>Is there any available data illustrating or describing the IPI latencies, overheads, sustained throughput, or other characteristics on DF across cores and sockets on SMP systems?</div><div><br></div><div>I admit I have not poked around enough in the IPI code[1] to measure these myself, but if no such data is available, I may try so.</div><div><br></div><div>[1] sys/kern/lwkt_ipiq.c (?)</div><div><br></div><div>Thanks!</div><div>Alex</div></div>